コンテキスト長(たとえば128k)を超えるトピックが多く、問題が発生しています。最も「いいね!」が多い投稿のみに基づいて要約することを検討しましたか?最も「いいね!」が多い投稿から始め、次に「いいね!」が多い投稿を追加し、ターゲットコンテキスト長に達するまで続けます。その後、結果のテキストをGPTに渡しますか?少なくとも私たちのフォーラムでは、「いいね!」は「最も関連性の高い」の非常に良い代理指標です。
それが長めのトピックでの仕組みです。トピックで最も「いいね!」された上位50件の投稿を使用します。
うーん、要約は長いトピックでハングアップするように見えるので、コンテンツの長さに起因すると仮定しました。デバッグのヒントはありますか? gpt-o4を使用しています。OpenAIダッシュボードで特定のAPIリクエストを表示する方法がわかりません。
ai_api_audit_logs テーブルでリクエストを確認できます。
要約の中断に関してですが、最近フロントエンドでいくつかのバグが発生していましたので、サイトを最新版にアップデートしてください。
エラーログでこれを見つけました。
Request too large for gpt-4o in organization org-xxxxxxxxxxxxxxxxx on tokens per min (TPM): Limit 30000, Requested 45906.
制限を増やすには、実際に50ドル(予算計上するだけでなく)を費やし、約1か月プラス7日間待つ必要があると思います。
これまでのところ、2ドルしか使っておらず、まだ支払いは発生していません。また、Discourseでトークンを制限する方法もわかりません。そのため、現時点では長いトピックの要約を使用する方法がわかりません。
ああ、問題は、OpenAIアカウントが制限されており、トークン/分に制限があるため、DiscourseでのAI要約の使用に影響が出ているということですね。
それは残念ですね。Anthropic、AWS、Azure、Google Cloud、あるいはLlama APIプロバイダーのような代替プロバイダーを検討することをお勧めします。無料ティアがあり、現在の制限よりも高い制限を提供するプロバイダーがあると思います。
要約のために 4o から 4o-mini に切り替えたところ、最も長いトピックで機能するようです。どうやら OpenAI は GPT ごとに異なる制限があるようです。
