Discourse AIの機能を支える大規模言語モデル(LLM)を選択する際には、コミュニティ管理者としてのニーズとメンバーのニーズを理解することが重要です。
意思決定に影響を与える可能性のある要因はいくつかあります。
- ユースケースごとのパフォーマンス: 最もパフォーマンスの高いモデルを求めていますか?パフォーマンスはタスク(例:要約、検索、複雑な推論、スパム検出)によって異なります。評価は、モデルが正確で、関連性があり、一貫性のある応答を生成する能力に基づいています。
- コンテキスト長: コンテキストウィンドウとは、モデルが一度に「見ることができる」テキスト量のことです。コンテキストウィンドウが広いほど、より多くの情報(例:要約のための長いトピック)を処理し、より長いやり取りで一貫性を維持できます。
- 互換性: モデルはDiscourse AIプラグインで標準サポートされていますか?特定のAPIエンドポイントや設定が必要になりますか?サポートされているプロバイダーとモデルについては、プラグインのドキュメントを確認してください。
- 言語サポート: 多くのトップLLMは複数の言語にうまく対応していますが、パフォーマンスは異なる場合があります。コミュニティが主に英語以外の言語を使用している場合は、その言語で特定のモデルをテストすることが推奨されます。
- マルチモーダル機能: AI Helperの画像キャプション作成など、一部の機能では画像を処理できるモデル(ビジョン)が必要です。選択したモデルが必要なモダリティをサポートしていることを確認してください。
- 速度とモード: 大きく強力なモデルほど遅くなる可能性があります。AI Helperや検索などのリアルタイム機能では、より高速なモデルの方が優れたユーザーエクスペリエンスを提供する可能性があります。一部のモデルでは異なるモード(例:拡張された思考や推論の努力レベル)が提供されており、速度とより深い推論とのトレードオフが可能です。
- コスト: 予算はしばしば重要な要素です。モデルのコストは、プロバイダーとモデルの階層によって大きく異なります。コストは通常、トークンごと(入力と出力)に測定されます。高速/小型モデルは、大規模/高性能モデルよりも一般的に安価です。オープンソースモデルは、ホスティングによってはよりコスト効率よく実行できることがよくあります。
- プライバシーに関する懸念: LLMプロバイダーごとに、データの使用方法とプライバシーポリシーが異なります。特にデータがトレーニングに使用される可能性があるかどうかについて、利用規約を確認してください。一部のプロバイダーはデータ保持ゼロのオプションを提供しています。
- オープンソース vs. クローズドソース: オープンソースモデルは透明性を提供し、自己ホスティングやファインチューニングの可能性がありますが、より多くの技術的労力を必要とする場合があります。クローズドソースモデルは通常、API経由での使用が容易ですが、制御と透明性が低くなります。
Discourse AI機能のためのLLMの選択
LLMの状況は急速に進化しています。以下の表は、現在人気があり、さまざまなDiscourse AI機能に適した、一般的な強みとコストプロファイル別に分類されたモデルの概要を示しています。各カテゴリ内のモデルはアルファベット順にリストされています。
これらは一般的なガイドラインです。サポートされているモデルの最新リストと必要な設定については、必ず公式のDiscourse AIプラグインのドキュメントを確認してください。パフォーマンスとコストは頻繁に変動するため、最新の詳細についてはLLMプロバイダーのドキュメントを参照してください。オープンソースモデルの可用性とパフォーマンスは、特定のプロバイダーまたはホスティング設定に依存する場合があります。
ホストされている顧客の代替オプションとして、Discourse AIプラグインの管理者インターフェイスから利用可能なプリコンフィギュレーションされたLLMを使用する方法があります。これらは、Anthropic、Google、OpenAI、OpenRouterからの人気モデルのワンクリックプリセットを提供する、管理者 → プラグイン → AI → LLMから設定できます。
| カテゴリ | モデル | プロバイダー | 主な強み / ユースケース | 注記 |
|---|---|---|---|---|
| トップパフォーマンス/推論 | Claude Opus 4.6 | Anthropic | 最大限の推論能力、複雑なタスク、分析、生成 | Anthropicの最高コストモデル、200Kコンテキスト、優れたビジョン |
| Gemini 3 Pro | 高パフォーマンス、非常に大きなコンテキストウィンドウ、強力なマルチモーダル | 1Mトークンコンテキスト、優れたオールラウンダー | ||
| GPT-5.2 | OpenAI | 最先端の推論、複雑なタスク、生成、ビジョン | 400Kコンテキスト、OpenAIの強力なオールラウンダー | |
| xAI Grok 4 Fast | xAI (OpenRouter経由) | 強力な推論、競争力のあるパフォーマンス | OpenRouter経由で利用可能、ビジョン対応 | |
| バランス (多目的) | Claude Sonnet 4.6 | Anthropic | 高パフォーマンス、良好な推論、大きなコンテキスト、ビジョン、高速 | 速度と機能のバランスが取れた優れたデフォルトの選択肢、200Kコンテキスト |
| DeepSeek V3.2 | DeepSeek (OpenRouter経由) | 強力な一般パフォーマンス、優れた価値 | オープンソースの選択肢、広範な利用でコスト効率が良い、163Kコンテキスト | |
| Moonshot Kimi K2.5 | Moonshot (OpenRouter経由) | 強力なパフォーマンス、非常に大きなコンテキスト、ビジョン | 262Kコンテキストウィンドウ、優れた価値 | |
| コスト効率/速度 | Claude Haiku 4.5 | Anthropic | 高速かつ低コスト、単純なタスクに適している、ビジョン対応 | 検索や基本的な要約などの高頻度、低遅延のニーズに最適 |
| Gemini 3 Flash | 非常に高速かつコスト効率が良い、良好な一般機能、ビジョン | 1Mコンテキスト、要約、検索、ヘルパータスクに最適 | ||
| GPT-5 Mini | OpenAI | 高速で手頃な価格、多くのタスクに適している | 400Kコンテキスト、より単純な機能向けのコスト/パフォーマンスの良好なバランス | |
| GPT-5 Nano | OpenAI | 非常に高速で最も安価なOpenAIオプション | 最高の頻度、最低コストのニーズに最適 | |
| Arcee Trinity Large (無料) | Arcee (OpenRouter経由) | 無料ティアのオプション、128Kコンテキスト | テストまたは非常に予算に制約のあるデプロイメントに最適 | |
| ビジョン対応 | Claude Opus 4.6 / Sonnet 4.6 / Haiku 4.5 | Anthropic | すべての現在のAnthropicモデルがビジョンをサポート | AI Helperでの画像キャプション作成に役立つ |
| Gemini 3 Pro / 3 Flash | 強力なビジョン機能 | AI Helperでの画像キャプション作成に役立つ | ||
| GPT-5.2 | OpenAI | テキストとビジョンの統合 | AI Helperでの画像キャプション作成に役立つ | |
| Moonshot Kimi K2.5 | Moonshot (OpenRouter経由) | ビジョン対応 | OpenRouter経由で利用可能 | |
| xAI Grok 4 Fast | xAI (OpenRouter経由) | ビジョン対応 | OpenRouter経由で利用可能 |
一般的な推奨事項のマッピング(簡略化):
- AIボット(複雑なQ&A、エージェント): トップパフォーマンス/推論モデル(Claude Opus 4.6、Gemini 3 Pro、GPT-5.2)または強力なバランスモデル(Claude Sonnet 4.6、DeepSeek V3.2)。
- AI検索 / ディスカバー: コスト効率/速度モデル(Haiku 4.5、Gemini 3 Flash、GPT-5 Mini/Nano)またはわずかに優れた理解のためのバランスモデル(Sonnet 4.6、DeepSeek V3.2)。
- AIヘルパー(タイトルの提案、校正、翻訳): コスト効率/速度モデルまたはバランスモデル。速度が好まれることが多いです。Claude Sonnet 4.6またはGPT-5 Miniが良い候補です。
- 要約: バランスモデル(Claude Sonnet 4.6、GPT-5.2、DeepSeek V3.2)またはコスト効率モデル(Gemini 3 Flash、GPT-5 Mini)。より長いコンテキストウィンドウ(Gemini 3 Pro/Flashの1Mトークン)は長いトピックに有益です。
- スパム検出: コスト効率/速度モデルで十分であり、コスト効率も高くなります(Haiku 4.5、Gemini 3 Flash、GPT-5 Mini/Nano)。
- 翻訳: コスト効率/速度モデルは、ロケール検出と翻訳タスクにうまく機能します(Haiku 4.5、Gemini 3 Flash、GPT-5 Mini)。
- 自動化(トリアージ、レポート): 複雑さに依存します。単純なトリアージルールはコスト効率モデルでうまく機能します。複雑なエージェントベースのトリアージは、バランスモデルまたはトップパフォーマンスモデルの恩恵を受けます。
選択したLLMを、Discourse管理画面のプラグイン → AI → 機能で各機能に設定し、プラグイン → AI → LLMでLLM接続を設定することを忘れないでください。