このガイドは、Discourse AI プラグインの一部である AI 利用状況ページについて説明します。
必要なユーザーレベル: 管理者
AI 利用状況ページは、管理者がコミュニティで Discourse AI 機能が時間の経過とともにどのように使用されているかを理解するために設計されています。これは、Estimating costs of using LLMs for Discourse AI で役立ちます。
機能
- 期間: 過去 24 時間、過去 1 週間、過去 1 か月、およびカスタム期間
- Discourse AI 機能別に選択可能
- 有効になっている LLM 別に選択可能
- 概要プレビュー
- リクエスト総数: Discourse を介して LLM に送信されたすべてリクエスト
- トークン総数: LLM にプロンプトを送信する際の使用済みトークン総数
- リクエストトークン: LLM があなたの発言を理解しようとする際の使用済みトークン
- レスポンストークン: プロンプトへの LLM の応答の際の使用済みトークン
- キャッシュ読み取りトークン: パフォーマンスとコストの最適化のために LLM がキャッシュから再利用する、以前に処理されたリクエストトークン
- キャッシュ書き込みトークン: 将来の再利用の可能性のためにキャッシュに書き込まれたリクエストトークン
- 推定コスト: LLM 設定に追加された指定されたコストメトリックに基づいて LLM によって使用されたすべてのトークンの累積コスト
- トークン使用量を示すインタラクティブな棒グラフ
- Discourse AI 機能ごとのトークン、使用回数、推定コスト
- LLM ごとのトークン、使用回数、推定コスト
- ユーザーごとのトークン、使用回数、推定コスト
AI 利用の有効化
前提条件
データを入力するには、プロバイダーから少なくとも 1 つ の大規模言語モデル (LLM) を設定し、メンバーが Discourse AI 機能を使用している必要があります。
始めるには、Discourse AI - 大規模言語モデル (LLM) 設定ページ から LLM を設定できます。
- OpenAI
- Anthropic
- Azure OpenAI
- AWS Bedrock
- Google Gemini
- Mistral
- Groq
- SambaNova
- Open Router
- Cohere
- HuggingFace
- vLLM / オープンソース LLM の自己ホスティング
設定
管理設定 →プラグイン→AI→設定タブに移動し、有効になっていることを確認します (discourse ai enabled)- AI プラグイン内で
利用状況タブに移動します
技術的な FAQ
トークンとは何ですか、どのように機能しますか?
- トークンは、LLM がテキストを理解し生成するために使用する基本単位であり、使用状況データはコストに影響を与える可能性があります。詳細については、Discourse AI の LLM のコストの見積もり をご覧ください。
