Algo aconteceu depois que atualizei o discourse para a versão 2.6.0 beta 2, os embeddings pararam de funcionar e não consigo descobrir o porquê.
Estou usando os LLMs Gemini Flash e Flash Lite e eles estão funcionando perfeitamente, o bot de IA está funcionando, etc.
No entanto, quando vou ao modelo de Embedding e executo test no embedding do Gemini, recebo este erro (e os logs também estão cheios dele)
Tentando contatar o modelo retornou este erro: { "error": { "code": 429, "message": "Você excedeu sua cota atual, verifique seus detalhes de plano e faturamento. Para mais informações sobre este erro, acesse: https://ai.google.dev/gemini-api/docs/rate-limits.\n* Cota excedida para a métrica: generativelanguage.googleapis.com/embed_content_free_tier_requests, limite: 0\n* Cota excedida para a métrica: generativelanguage.googleapis.com/embed_content_free_tier_requests, limite: 0\n* Cota excedida para a métrica: generativelanguage.googleapis.com/embed_content_free_tier_requests, limite: 0\n* Cota excedida para a métrica: generativelanguage.googleapis.com/embed_content_free_tier_requests, limite: 0", "status": "RESOURCE_EXHAUSTED", "details": [ { "@type": "type.googleapis.com/google.rpc.QuotaFailure", "violations": [ { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerMinutePerProjectPerModel-FreeTier" }, { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerMinutePerUserPerProjectPerModel-FreeTier" }, { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerDayPerUserPerProjectPerModel-FreeTier" }, { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerDayPerProjectPerModel-FreeTier" } ] }, { "@type": "type.googleapis.com/google.rpc.Help", "links": [ { "description": "Saiba mais sobre as cotas da API Gemini", "url": "https://ai.google.dev/gemini-api/docs/rate-limits" } ] } ] } }
Isso está funcionando perfeitamente até a versão 3.6.0 beta 1, depois de atualizar para a beta 2 começou a dar este erro. Estou usando a mesma chave com este embedding que estou usando com o LLM. Eu até tentei gerar uma nova chave, esperei 48 horas, etc., e nada parece resolver isso.
Alguém pode me aconselhar sobre por que parou de funcionar de repente, por que o LLM AI Bot está funcionando, mas este não, e como posso consertar isso?