Algo sucedió después de actualizar discourse a 2.6.0 beta 2, las incrustaciones dejaron de funcionar y no puedo averiguar por qué.
Estoy usando los LLM Gemini Flash y Flash Lite y funcionan perfectamente, el bot de IA funciona, etc.
Sin embargo, cuando voy al modelo de incrustación y ejecuto test en la incrustación de gemini, obtengo este error (y los registros también están llenos de él).
Trying to contact the model returned this error: { "error": { "code": 429, "message": "You exceeded your current quota, please check your plan and billing details. For more information on this error, head to: https://ai.google.dev/gemini-api/docs/rate-limits.\n* Quota exceeded for metric: generativelanguage.googleapis.com/embed_content_free_tier_requests, limit: 0\n* Quota exceeded for metric: generativelanguage.googleapis.com/embed_content_free_tier_requests, limit: 0\n* Quota exceeded for metric: generativelanguage.googleapis.com/embed_content_free_tier_requests, limit: 0\n* Quota exceeded for metric: generativelanguage.googleapis.com/embed_content_free_tier_requests, limit: 0", "status": "RESOURCE_EXHAUSTED", "details": [ { "@type": "type.googleapis.com/google.rpc.QuotaFailure", "violations": [ { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerMinutePerProjectPerModel-FreeTier" }, { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerMinutePerUserPerProjectPerModel-FreeTier" }, { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerDayPerUserPerProjectPerModel-FreeTier" }, { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerDayPerProjectPerModel-FreeTier" } ] }, { "@type": "type.googleapis.com/google.rpc.Help", "links": [ { "description": "Learn more about Gemini API quotas", "url": "https://ai.google.dev/gemini-api/docs/rate-limits" } ] } ] } }
Esto funcionaba perfectamente hasta la versión 3.6.0 beta 1, después de actualizar a la beta 2 comenzó a dar este error. Estoy usando la misma clave con esta incrustación que con el LLM. Incluso he intentado generar una nueva clave, esperé 48 horas, etc., y nada parece solucionar esto.
¿Alguien puede aconsejarme sobre por qué dejó de funcionar de repente, por qué el bot de IA LLM funciona pero esto no, y cómo lo soluciono?