LLMが変更された場合、翻訳には何が起こりますか?

LLM を変更すると、すべての投稿が再翻訳されますか?

以前は Groq でホストされている LLM を使用していましたが、95% 完了した時点でエラーが発生し始めました。調査した結果、使用していたモデルが Groq によって非推奨になったことがわかりました。そこで Groq で新しいモデルを設定し、Discourse のモデルパラメータを更新しました。

現在、Discourse は更新された翻訳用 LLM を毎日数百万トークン使用していますが、翻訳ステータスパージのプログレスバーは全く進んでいません(まだ 95% のままです)。

そこで、LLM パラメータが変更された際に何が起こるのかを理解しようとしています。翻訳は最初からやり直されるのでしょうか?もしそうなら、それを防ぎ、中断した場所から再開させる方法はありますか?

それは、例えば、Gemini のモデルで翻訳してから別のモデルに切り替えると、新しい単語キャッシュが作成されるかどうかによります。私の経験では、3 つのルートを維持する方が好ましく、そのうち 2 つを同じモデルで使用し、最近新しいコンテンツ用に Gemini Flash Lite を有効にしました。現時点では問題はありません。

既存の翻訳は保持され、新しいLLMはこれまで翻訳されていない部分のみを処理します。

確認のために何ができますか?

毎日、LLM は翻訳のために何百万ものトークンを消費していますが(API の日次制限に達しています)、翻訳統計には一切の進捗がありません(増加する翻訳数が 0 です)。スクリーンショットをご覧ください。


詳細ログを有効にし、AI API 監査ログテーブルの最新の項目を確認してください。

はい、Rails コンソールから SiteSettings.ai_translation_verbose_logs = true を実行して AI 翻訳のデバッグを有効にしました。その後、過去 2 日間 /logs のエラーログページで以下のメッセージが表示されています。

DiscourseAi::Translation: トピック 5898 の zh_TW への翻訳に失敗しました: {“error”:{“message”:"組織 org_01kccx1baz5sXXX のサービスティア on_demand において、モデル openai/gpt-oss-120b のトークン数(TPD)のレート制限に達しました: 制限 200000、使用済み 193366、要求 7514。6 分 20.16 秒後に再度お試しください。

同じトピックがループして、1 日のトークン制限を使い果たし続けています。なぜ 1 つのトピックがループに陥ってしまうのか理解できません。