参考までに、問題の発端は翻訳サービスがフリーズし、トークンが枯渇したことでした:
DiscourseAi::Completions::Endpoints::OpenAi: status: 429 - body: {“error”:{“message”:“モデル
openai/gpt-oss-120bの組織org_01kccx1be8fffaz5sbe17におけるサービス階層on_demandで、1 日あたりのトークン数(TPD)のレート制限に達しました:制限 200000、使用 193487、要求 7464。6 分 50.832 秒後に再度お試しください。トークンが不足していますか?今日、Billing - Manage で Dev Tier にアップグレードしてください”,“type”:“tokens”,“code”:“rate_limit_exceeded”}}
その後、1 日あたりのレート制限がリセットされるよう、サービスを 24 時間一時停止しました。再起動すると、以下のエラーが発生していることに気づきました:
DiscourseAi::Completions::Endpoints::OpenAi: status: 413 - body: {“error”:{“message”:“モデル
openai/gpt-oss-120bの組織org_01kccx1be8fffaz5sbe17におけるサービス階層on_demandで、1 分あたりのトークン数(TPM)の制限を超えたリクエストです:制限 8000、要求 8102。メッセージサイズを小さくして再度お試しください。トークンが不足していますか?今日、Billing - Manage で Dev Tier にアップグレードしてください”,“type”:“tokens”,“code”:“rate_limit_exceeded”}}
その後、LLM 設定で最大出力トークンを 7000 から 6800 に減らしたところ、再び動作するようになりました。
何が不足しているのでしょうか?コンテキストウィンドウに関連しており、最大出力トークンとは無関係だとおっしゃるのでしょうか?Groq/モデルの制限値を Discourse の LLM 設定とどう対応させるか、確認しているところです。