Quelque chose s’est produit après la mise à jour de discourse vers la version 2.6.0 beta 2, les embeddings ont cessé de fonctionner et je n’arrive pas à comprendre pourquoi.
J’utilise les LLM Gemini Flash et Flash Lite, et ils fonctionnent parfaitement, le bot IA fonctionne, etc.
Cependant, lorsque je vais dans le modèle d’embedding et que j’exécute test sur l’embedding Gemini, j’obtiens cette erreur (et les logs en sont également remplis) :
Trying to contact the model returned this error: { "error": { "code": 429, "message": "You exceeded your current quota, please check your plan and billing details. For more information on this error, head to: https://ai.google.dev/gemini-api/docs/rate-limits.\n* Quota exceeded for metric: generativelanguage.googleapis.com/embed_content_free_tier_requests, limit: 0\n* Quota exceeded for metric: generativelanguage.googleapis.com/embed_content_free_tier_requests, limit: 0\n* Quota exceeded for metric: generativelanguage.googleapis.com/embed_content_free_tier_requests, limit: 0\n* Quota exceeded for metric: generativelanguage.googleapis.com/embed_content_free_tier_requests, limit: 0", "status": "RESOURCE_EXHAUSTED", "details": [ { "@type": "type.googleapis.com/google.rpc.QuotaFailure", "violations": [ { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerMinutePerProjectPerModel-FreeTier" }, { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerMinutePerUserPerProjectPerModel-FreeTier" }, { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerDayPerUserPerProjectPerModel-FreeTier" }, { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerDayPerProjectPerModel-FreeTier" } ] }, { "@type": "type.googleapis.com/google.rpc.Help", "links": [ { "description": "Learn more about Gemini API quotas", "url": "https://ai.google.dev/gemini-api/docs/rate-limits" } ] } ] } }
Cela fonctionnait parfaitement jusqu’à la version 3.6.0 beta 1, après la mise à jour vers la beta 2, cette erreur a commencé à apparaître. J’utilise la même clé pour cet embedding que pour le LLM. J’ai même essayé de générer une nouvelle clé, j’ai attendu 48 heures, etc., et rien ne semble résoudre ce problème.
Quelqu’un peut-il me conseiller sur la raison pour laquelle cela a soudainement cessé de fonctionner, pourquoi le bot IA LLM fonctionne mais pas celui-ci, et comment puis-je le réparer ?