Qualcosa è successo dopo l’aggiornamento di Discourse a 2.6.0 beta 2, gli embedding hanno smesso di funzionare e non riesco a capire perché.
Sto usando i modelli LLM Gemini Flash e Flash Lite e funzionano perfettamente, il bot AI funziona, ecc.
Tuttavia, quando vado al modello di embedding ed eseguo test sull’embedding Gemini, ottengo questo errore (e anche i log ne sono pieni)
Trying to contact the model returned this error: { "error": { "code": 429, "message": "You exceeded your current quota, please check your plan and billing details. For more information on this error, head to: https://ai.google.dev/gemini-api/docs/rate-limits.\n* Quota exceeded for metric: generativelanguage.googleapis.com/embed_content_free_tier_requests, limit: 0\n* Quota exceeded for metric: generativelanguage.googleapis.com/embed_content_free_tier_requests, limit: 0\n* Quota exceeded for metric: generativelanguage.googleapis.com/embed_content_free_tier_requests, limit: 0\n* Quota exceeded for metric: generativelanguage.googleapis.com/embed_content_free_tier_requests, limit: 0", "status": "RESOURCE_EXHAUSTED", "details": [ { "@type": "type.googleapis.com/google.rpc.QuotaFailure", "violations": [ { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerMinutePerProjectPerModel-FreeTier" }, { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerMinutePerUserPerProjectPerModel-FreeTier" }, { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerDayPerUserPerProjectPerModel-FreeTier" }, { "quotaMetric": "generativelanguage.googleapis.com/embed_content_free_tier_requests", "quotaId": "EmbedContentRequestsPerDayPerProjectPerModel-FreeTier" } ] }, { "@type": "type.googleapis.com/google.rpc.Help", "links": [ { "description": "Learn more about Gemini API quotas", "url": "https://ai.google.dev/gemini-api/docs/rate-limits" } ] } ] } }
Questo ha funzionato perfettamente fino alla beta 1 di 3.6.0, dopo l’aggiornamento alla beta 2 ha iniziato a dare questo errore. Sto usando la stessa chiave con questo embedding come con l’LLM. Ho anche provato a generare una nuova chiave, ho aspettato 48 ore, ecc. e niente sembra risolvere questo problema.
Qualcuno può consigliarmi sul perché ha smesso improvvisamente di funzionare, perché l’LLM AI Bot funziona ma questo no e come posso risolverlo?