このガイドでは、Discourse AI プラグインの一部である LLM 設定ページについて説明します。
必要なユーザーレベル: 管理者
専用の設定ページは、Discourse AI 機能に使用される大規模言語モデル(LLM)に関連するすべてを 1 か所にまとめるように設計されています。
有効になっている Discourse AI 機能に応じて、LLM が必要な場合があります。LLM が前提条件であるかどうかを確認するには、各 Discourse AI 機能をチェックしてください。
機能
- 事前入力された情報を持つ新しいモデルの追加
- 未記載のカスタムモデルの追加
- LLM 設定の構成
- AI ボットでの特定の LLM の使用許可
- AI ボットのユーザー名の確認
- ビジョン サポートの有効化(モデルによる)
- 許可される添付ファイルタイプの構成
- グループごとの使用量クォータの設定
- 入力/出力トークンコストの追跡
- テスト
- 設定の保存
LLM 接続の追加
管理→プラグイン→AIに移動しますLLMタブに移動します- 新しい接続を追加し、モデルを選択します
- API キーを追加します(モデルによっては、手動で入力する必要があるフィールドが増える場合があります)。保存します。
- (オプション)接続をテストして、機能していることを確認します
サポートされている LLM
モデルがリストにない場合は、いつでもカスタムオプションを追加できます。サポートされるモデルは継続的に追加されています。事前構成済みのモデルはテンプレートであり、「手動構成」を使用すれば、いつでも同じ結果を得ることができます。
Anthropic
- Claude Opus 4.6
- Claude Sonnet 4.6
- Claude Haiku 4.5
- Gemini 3 Pro
- Gemini 3 Flash
OpenAI
- GPT-5.4
- GPT-5 Mini
- GPT-5 Nano
Open Router
- DeepSeek V3.2
- Moonshot Kimi K2.5
- xAI Grok 4 Fast
- MiniMax M2.5
- Z-AI GLM-5
- … その他多数
さらに、ホストされているお客様は、設定ページで事前構成されている CDCK ホスト型スモール LLM を使用できます。これは、Discourse によってホストされているオープンウェイトの LLM で、AI 機能を強化するためにすぐにご利用いただけます。
構成フィールド
選択した LLM プロバイダーに関連するフィールドのみが表示されます。
モデル名など、事前入力されたフィールドを適切なプロバイダーと照合して二重に確認してください。コア フィールド:
表示名— ドロップダウンに表示される分かりやすい名前モデル名— API に送信されるモデル識別子(例:claude-sonnet-4-6、gpt-5.2)プロバイダー— モデルをホストしているサービス(例: Anthropic、OpenAI、Google、AWS Bedrock、Azure、Open Router など)URL— API エンドポイント URL(AWS Bedrock では表示されません)API キー— AI シークレットシステムを通じて構成されますトークナイザー最大プロンプトトークン— 大きすぎるリクエストを防ぐためのプロンプトの切り詰めを制御します最大出力トークン入力コスト/出力コスト— 使用状況追跡に使用される、100 万トークンあたりのコスト入力コストのキャッシュ/キャッシュ書き込みコスト— プロンプトキャッシングをサポートするプロバイダーの場合ビジョン有効化— 画像認識を有効にします(モデルによる)許可される添付ファイルタイプ— モデルが処理できるファイルタイププロバイダー固有のフィールド(選択したプロバイダーに基づいて動的に表示されます):
- AWS Bedrock:
アクセス キー ID、ロール ARN、リージョン、推論/思考オプション、プロンプトキャッシング- Anthropic: 推論オプション、
プロンプトキャッシング- OpenAI:
組織 ID、推論の労力、サービス層- Google:
思考を有効にする、思考レベル- Open Router:
プロバイダー順序、プロバイダー量子化クォータ(初期保存後に利用可能):
- グループごとの使用量クォータは、最大トークン、最大使用量、および期間を設定して構成できます
技術的な FAQ
トークナイザーとは何ですか?
- トークナイザーは、文字列をトークンに変換します。これは、モデルが入力を理解するために使用するものです。
最大プロンプトトークンにはどの数値を使用すべきですか?
- 一般的な経験則として、モデルのコンテキストウィンドウの 50% を使用します。これは、送信するトークン数と生成されるトークン数の合計です。プロンプトが大きくなりすぎると、リクエストは失敗します。その数値は、プロンプトを切り詰めて、それが起こらないようにするために使用されます。
注意事項
- 使用したいモデルがリストに表示されない場合があります。手動で追加できますが、人気のモデルが登場したらサポートする予定です。
難しすぎます。やり方が全くわかりません。Googleログイン設定など、様々なAIの具体的なチュートリアルを更新してほしいです。
先週、UIを大幅に改善しました。もう一度試していただけますか?
Gemini 2.0 はいつサポートされますか?
かなりの間サポートされてきました。
CDCKがホストしているものが設定されているにもかかわらず、LLMを選択できないという問題があるようです。
これは正常ですか?
ここに解凍すべきことがたくさんありますが、何のためにどのLLMを選択しようとしていますか?
CDCK LLMは非常に特定の機能にのみ利用可能です。どのLLMが必要かを確認するには、インスタンスの /admin/whats-new にアクセスし、「実験的な機能のみ表示」をクリックしてください。CDCK LLMを特定の機能で利用可能にするには、有効にする必要があります。
CDCK LLM以外で定義したLLMは、すべての機能で利用可能です。
コスト/品質のバランスが最も良い一般的な概要を提供するトピックはありますか?それとも、小規模なコミュニティや基本的な機能で無料で利用できるLLMはありますか?詳細を調べたり、試したりすることはできますが、時間が少ししかありません。
例えば、スパム検出と不適切表現フィルターのみに関心があります。これらは無料で利用していましたが、それらのプラグインは廃止されているか、まもなく廃止される予定です。LLMにお金を払うことなく、この機能を引き続き利用できると良いのですが。
お探しのものに合致する可能性のあるトピックはこちらです。
完了しました!実際にはかなり簡単でした。しかし、テクノロジーに詳しくない人にとっては、セットアップがまだ少し難しいかもしれません。たとえば、モデル名は設定で自動的に設定されていましたが、正しくありませんでした。幸い、APIページでClaudeのcurl例でモデル名を認識し、その後機能しました:tada:
スパム制御の推定コストは、月額約30ユーロセントです(私のフォーラムはそれほど大きくありません)。したがって、管理可能です!念のため、APIコンソールで5ユーロの制限を設定しました。
Claudeにはどちらを選びましたか?表示された間違った名前は何で、正しい名前に修正しましたか?
私はClaude 3.5を使用しています。モデルIDはデフォルトでclaude-3-5-haikuですが、エラーが出るためclaude-3-5-haiku-20241022に変更しなければなりませんでした。
承知いたしました。時々、接続にずれが生じることがあります。自動入力される情報は、ほとんどの場合機能するガイダンスとして機能しますが、ご指摘のような(さまざまなモデルやプロバイダー構成があるため)特定のケースでは不十分な場合があります。
このガイドのOPを更新しました。
このモデルは3.4.2に記載されていません。これらの事前設定は3.5でのみ利用可能で、手動で追加する必要があるのでしょうか?
編集:また、Grok 3モデルを使用する場合、「Tokenizer」にはどのオプションを選択すればよいですか?
プリコンフィグは単なるテンプレートです。「手動設定」を使用しても同じ最終結果を得ることができます。
GeminiトークナイザーはGrokのものにかなり近いことがわかったので、それを試してみてください。
現在の構成管理でIBM WatsonXを使用する方法はありますか、それともDiscourseのスタッフによる追加の開発作業が必要になりますか?
IBM WatsonX は、OpenAI と互換性のある API を公開していますか?
素晴らしい質問ですね。ドキュメントをざっと確認しましたが、あまり情報は得られませんでした。しかし、このリポジトリが存在するという事実は、直接互換性がないことを示唆しています: GitHub - aseelert/watsonx-openai-api: Watsonx Openai compatible API
これらのLLMのうち、スパム対策に無料で利用できるものはどれですか?
編集:いや、Gemini Flash 2.5 を使用しています。
私もいつも不思議に思っています。この質問に対する最良の答えはこれのようです。
しかし、スパム設定トピックのOPにもこれがあります。そこにあるすべての情報の中から見つけるのが少し難しいだけだと思います。


