O que acontece com as traduções quando o LLM muda?

Certo, então ativei a depuração de tradução de IA pelo console do Rails com SiteSettings.ai_translation_verbose_logs = true e, nos últimos 2 dias, estou vendo isso na página de logs de erro em /logs.

DiscourseAi::Translation: Falha ao traduzir o tópico 5898 para zh_TW: {“error”:{“message”:"Limite de taxa atingido para o modelo openai/gpt-oss-120b na organização org_01kccx1baz5sXXX, nível de serviço on_demand, em tokens por dia (TPD): Limite 200000, Usado 193366, Solicitado 7514. Por favor, tente novamente em 6m20.16s.

O mesmo tópico está continuando e consumindo todo o limite diário de tokens. Não consigo entender por que um único tópico ficaria preso em um loop?