Cosa succede alle traduzioni quando cambia l'LLM?

Se cambio il LLM, tutti i post vengono rtradotti?

Stavo utilizzando un LLM ospitato su Groq; era circa al 95% di completamento quando ho iniziato a ricevere errori. Dopo aver indagato, ho scoperto che Groq aveva deprecato il modello che stavo usando. Quindi ho configurato un nuovo modello su Groq e aggiornato i parametri del modello in Discourse.

Osservo che Discourse sta ora utilizzando milioni di token con il nuovo LLM per la traduzione ogni singolo giorno, ma la barra di avanzamento nella pagina di stato delle traduzioni non progredisce affatto (è ancora bloccata al 95%).

Quindi sto cercando di capire cosa succede quando cambiano i parametri del LLM: ricomincia le traduzioni da zero? Se è così, c’è qualche modo per impedirlo e riprendere semplicemente da dove si era interrotto?

Dipende, ad esempio, se traduci usando un modello Gemini e poi passi a un altro, creerai una nuova cache di parole. Nella mia esperienza, preferisco mantenere tre rotte: due con lo stesso modello e ora ho attivato un Gemini Flash Lite per i nuovi contenuti, e finora nessun problema.

Le traduzioni vecchie vengono mantenute; il nuovo LLM eseguirà traduzioni solo per ciò che non è stato ancora tradotto.

Cosa posso fare per verificare cosa sta succedendo?

Ogni giorno l’LLM consuma milioni di token per le traduzioni (sta raggiungendo il limite giornaliero dell’API), ma non c’è alcun progresso nelle statistiche di traduzione (0 traduzioni incrementali). Vedere gli screenshot.


Abilita i log dettagliati e controlla le ultime voci nella tabella dei log di audit dell’API AI.

Ok, quindi ho attivato il debug della traduzione AI dalla console di Rails con SiteSettings.ai_translation_verbose_logs = true e negli ultimi 2 giorni sto vedendo questo nella pagina dei log degli errori in /logs.

DiscourseAi::Translation: Errore durante la traduzione del topic 5898 in zh_TW: {“error”:{“message”:"Limite di velocità raggiunto per il modello openai/gpt-oss-120b nell’organizzazione org_01kccx1baz5sXXX nel livello di servizio on_demand per i token al giorno (TPD): Limite 200000, Utilizzati 193366, Richiesti 7514. Riprova tra 6m20.16s.

Lo stesso topic continua a consumare tutto il limite giornaliero di token. Non riesco a capire perché un singolo topic rimanga bloccato in un loop?