一部のDiscourse AI機能を使用するには、大規模言語モデル(LLM)プロバイダーの使用がユーザーに義務付けられています。互換性のあるLLMについては、各AI機能を確認してください。
コストが懸念される場合、Discourse AIには支出管理に役立ついくつかの組み込みツールがあります。
- AI利用状況ダッシュボード — 機能、モデル、ユーザーごとのトークン消費量と推定コストを追跡します
- 利用クォータ — 設定可能な時間枠(時間ごと、日ごと、週ごと)内で、モデルごと、グループごとにトークン数またはリクエスト数の上限を設定します
- クレジット割り当て — ソフトリミットとハードリミットを設定して、モデルごとの全体的なクレジット予算を設定します
- ベンダー側の予算 — さらなる安全策として、ベンダー側で直接利用制限を設定します
- グループ制限 — 選択したユーザーとグループのみがAI機能にアクセスできるようにします
LLMを使用するコストを計算する際には、考慮すべきいくつかの変動要因があります。
単純化された見方は次のとおりです…
トークンとは何か、およびその数え方を理解しておくことが重要です。
- LLMモデルと価格設定 → 使用を計画している特定のLLMモデルを特定し、入力トークンと出力トークンに関する最新の価格情報を確認します
- 入力トークン → プロンプトの平均的な長さ(トークン単位)
- 出力トークン → モデルの応答(トークン単位)
それでは、ここでMetaにおけるAIボット使用の例を見てみましょう。
この計算では、トークン使用量、AIボットを使用しているユーザー、平均リクエスト数など、多くの単純化が行われました。これらの数値は一般的なガイドラインとしてのみ受け取る必要があります。特に、AIボットで多くの実験を行っているためです。
-
/admin/plugins/discourse-ai/ai-usageにある組み込みのAI利用状況ダッシュボードを使用して、機能、モデル、ユーザーごとに分類された実際の要求/応答トークン使用量を確認します。 -
平均応答トークンは、要求トークンの3倍から5倍の大きさでした [1](GPT-3.5 and GPT-4 API response time measurements - FYI - API - OpenAI Developer Community)]
-
平均ユーザー要求トークンを85(<1段落に相当)と仮定します [2]
-
平均応答トークンを 85 x 4 = 340 トークン(3段落分)と仮定します
-
OpenAIのGPT-5.4 miniを使用すると、入力トークンのコストは $0.75 / 1M トークン = $0.00000075 / トークン x 85 トークン = 入力で $0.000064 となります
-
出力トークンのコストは $4.50 / 1M トークン = $0.0000045 / トークン x 340 トークン = 出力で $0.00153 となります
-
リクエストあたりの合計コストは $0.000064 + $0.00153 = $0.0016 です
-
2024年2月には約600人のユーザーがAIボットを使用し、その月に平均10リクエストを行いました。これらの数値があなたのコミュニティと一致すると仮定します。
-
これは、2月におけるAIボットのコストが $0.0016 x 600 ユーザー x 10 リクエスト = $9.56 になることを意味します
-
これをAIボットを実行する年間コストに換算すると、$9.56 x 12 = 年間 $115 となり、LLMとしてGPT-5.4 miniを選択した場合のコストとなります。
さらにコストを削減するには、GPT-5.4 nano($0.20/$1.25 per 1M トークン)、Gemini 2.5 Flash($0.075/$0.30 per 1M トークン)、またはClaude Haiku 4.5などのバジェットモデルを検討してください。これらは、上記の例と比較してコストをさらに75〜95%削減できます。コストは下がり続けているため、常にプロバイダーの最新の価格設定を確認してください。