Was passiert mit Übersetzungen, wenn sich LLM ändert?

Okay, ich habe die AI-Übersetzungs-Debugging-Funktion über die Rails-Konsole aktiviert, indem ich SiteSettings.ai_translation_verbose_logs = true gesetzt habe. Seit zwei Tagen sehe ich dies auf der Fehlerprotokollseite unter /logs:

DiscourseAi::Translation: Übersetzung des Themas 5898 nach zh_TW fehlgeschlagen: {“error”:{“message”:"Tageslimit für Tokens für das Modell openai/gpt-oss-120b in der Organisation org_01kccx1baz5sXXX im Service-Tier on_demand erreicht: Limit 200000, verwendet 193366, angefordert 7514. Bitte versuchen Sie es in 6m20.16s erneut.

Das gleiche Thema verbraucht weiterhin das gesamte tägliche Token-Limit. Ich verstehe nicht, warum ein Thema in einer Schleife stecken bleibt.