Discourse AI の翻訳を公式チュートリアルに従って設定し、過去の投稿を数日間にわたってすべて翻訳するようにしました。実際、これにより大量の入力トークンと出力トークンが発生しました。しかし、2 日後、出力なしで入力トークンのみが処理される状況に遭遇しました。原因が不明です。過去の投稿はすべてすでに翻訳されたのでしょうか?もしそうであれば、トークン入力を削減し、コストを節約するためにどのような対策を講じることができますか?
こんにちは、これらの推奨事項に従いましたか?
使用状況のグラフは確かに懸念されます。このデータエクスプローラークエリを試していただけますか?
SELECT
a.id,
a.language_model,
LENGTH(p.raw) as raw_length,
a.response_tokens,
a.raw_request_payload,
a.raw_response_payload,
a.topic_id,
a.post_id
FROM ai_api_audit_logs a
LEFT JOIN posts p ON p.id = a.post_id AND p.deleted_at IS NULL
LEFT JOIN topics t ON t.id = a.topic_id AND t.deleted_at IS NULL
WHERE a.created_at > CURRENT_DATE - INTERVAL '1 days'
AND p.deleted_at IS NULL
AND t.deleted_at IS NULL
AND p.user_deleted = false
AND a.feature_name = 'translation'
AND LENGTH(p.raw) < 1000
AND a.response_tokens > 10000
ORDER BY a.created_at DESC
LIMIT 100
このクエリは、投稿の生の長さに基づいた応答トークン数を示すはずです。理想的には、トークン数の1.5倍を超えない類似の数値が表示されるはずです。AiApiAuditLogは、何が起こっているかを判断するのに役立ちます。
加えて、以下を共有してください。
- どのモデルを使用していますか?
- バックフィル時間あたりレートはいくつですか?開始時は50のような低い値に保つことをお勧めします。
- いくつの言語をサポートしていますか?選択したモデルはそれらをサポートしていますか?
翻訳モデルとしてGPT-4.1 Nanoを設定しました。時間あたりのバックフィルレートは以前は1,000に設定されていましたが、本日100に調整しました。日本語と英語の両方のサポートを有効にしましたが、このモデルはこれらの言語を確かにサポートしています。
はい、1000は良い考えではないでしょう。ここにサイト設定の制限を追加する必要があります。
OpenAI APIが1時間あたり約3000回ヒットした場合、どのように処理されるかはわかりません。基本的にあなたのセットアップでは、投稿ごとに以下の処理を行っています:1:ロケール検出、2:日本語への翻訳、3:英語への翻訳。
それでも50に下げることをお勧めします。そして、それがどのように機能するか見てみましょう。
近い将来、サイト全体の翻訳進捗状況を表示する方法も実装する予定です。
「いいね!」 1
うーん、このクエリは機能するはずです。discourse-data-explorer プラグインはお持ちですか?
わかりました、まず試してみます。ありがとうございます。
その後インストールして、もう一度試してみます。現在、フォーラムはユーザーがまだ積極的に利用しているため、再構築することは現実的ではありません。


