Discourse AI の機能を強化するために大規模言語モデル (LLM) を選択する際には、コミュニティ管理者であるあなたとメンバーのニーズを理解することが重要です。
意思決定に影響を与える可能性のある要因はいくつかあります。
- ユースケースごとのパフォーマンス: 最もパフォーマンスの高いモデルを探していますか? パフォーマンスは、タスク(例:要約、検索、複雑な推論、スパム検出)によって異なる場合があります。評価は、モデルが正確で関連性の高い、一貫性のある応答を生成する能力に基づいています。
- コンテキスト長: コンテキストウィンドウとは、モデルが一度に「見て」考慮できるテキストの量です。コンテキストウィンドウが大きいほど、より多くの情報(例:要約のための長いトピック)を処理し、長い対話で一貫性を維持できます。
- 互換性: Discourse AI プラグインでモデルは標準でサポートされていますか? 特定の API エンドポイントや設定が必要になりますか? サポートされているプロバイダーとモデルについては、プラグインのドキュメントを確認してください。
- 言語サポート: 多くのトップ LLM は複数の言語をうまく処理しますが、パフォーマンスは異なる場合があります。コミュニティが主に英語以外の言語を使用している場合は、その言語の特定のモデルをテストすることをお勧めします。
- マルチモーダル機能: AI トリアージ(NSFW 検出)などの一部の機能では、画像を処理できるモデル(ビジョン)が必要です。選択したモデルが、必要なモダリティをサポートしていることを確認してください。
- 速度とモード: より大きく、より強力なモデルは遅くなる可能性があります。AI ヘルパーや検索などのリアルタイム機能では、より高速なモデルの方が優れたユーザーエクスペリエンスを提供する可能性があります。一部のモデル(Claude 3.7 Sonnet など)は異なるモードを提供しており、速度とより深い推論のトレードオフを可能にします。
- コスト: 予算はしばしば重要な要因となります。モデルのコストは、プロバイダーとモデルのティアによって大きく異なります。コストは通常、トークン(入力と出力)ごとに測定されます。高速/小型モデルは、大型/高性能モデルよりも一般的に安価です。オープンソースモデルは、ホスティングによっては、より費用対効果の高い方法で実行できることがよくあります。
- プライバシーに関する懸念: LLM プロバイダーごとに、データの使用方法とプライバシーに関するポリシーが異なります。特にデータがトレーニング目的で使用される可能性があるかどうかについて、利用規約を確認してください。一部のプロバイダーは、データ保持期間ゼロのオプションを提供しています。
- オープンソース vs. クローズドソース: オープンソースモデルは透明性を提供し、セルフホスティングやファインチューニングの可能性を秘めていますが、より技術的な労力が必要になる場合があります。クローズドソースモデルは通常、API を介して使用するのが簡単ですが、制御と透明性は低くなります。
Discourse AI 機能のための LLM の選択
LLM の状況は急速に進化しています。以下の表は、さまざまな Discourse AI 機能に適した、現在人気があり有能なモデルの概要を、典型的な強みとコストプロファイル別に分類して示しています。各カテゴリ内のモデルはアルファベット順にリストされています。
これらは一般的なガイドラインです。サポートされているモデルと必要な構成の最新リストについては、必ず公式の Discourse AI プラグイン ドキュメントを確認してください。パフォーマンスとコストは頻繁に変更されます。最新の詳細については、LLM プロバイダーのドキュメントを参照してください。オープンソースモデルの可用性とパフォーマンスは、特定のプロバイダーまたはホスティング設定によって異なる場合があります。
ホストされている顧客の代替オプションは、Discourse によってホストされている事前構成済みのオープンウェイト LLM を使用することです。これらは、管理者 → 設定 → AI →
ai_llm_enabled_modelsまたは特定の機能設定を介して有効にできることがよくあります。
| カテゴリ | モデル | プロバイダー | 主な強み / ユースケース | メモ |
|---|---|---|---|---|
| トップパフォーマンス/推論 | Claude 3.7 Sonnet (Thinking) | Anthropic | 最大限の推論能力、複雑なタスク、分析、生成 | 通常モードよりも多くのリソース/時間を消費、優れたビジョン |
| DeepSeek-R1 | DeepSeek | 強力な推論、トップティアと競合、コーディング、数学 | オープンソースオプション、プロプライエタリな同等品よりも低コストの可能性 | |
| Gemini 2.5 Pro | 高パフォーマンス、非常に大きなコンテキストウィンドウ、強力なマルチモーダル | 優れたオールラウンダー、Google エコシステムとの統合が良好 | ||
| OpenAI o1 / o1-pro | OpenAI | 最先端の推論、複雑なタスク、生成 | 最高コスト、API を介した最大能力には o1-pro が必要になる可能性が高い |
|
| バランス (多目的) | Claude 3.7 Sonnet (Regular) | Anthropic | 高パフォーマンス、良好な推論、大規模コンテキスト、ビジョン、高速モード | 優れたデフォルト選択、速度と機能のバランスが取れている |
| DeepSeek-V3 | DeepSeek | 強力な汎用パフォーマンス、良好な価値 | オープンソースオプション、幅広い用途に費用対効果が高い | |
| GPT-4o | OpenAI | 非常に強力なオールラウンダー、良好なマルチモーダル、幅広い互換性 | パフォーマンス、速度、コストの優れたバランス | |
| OpenAI o3-mini | OpenAI | コストに対する良好なパフォーマンスと推論 | 多くのタスクに適した柔軟でインテリジェントな推論モデル | |
| 費用対効果/速度 | Claude 3.5 Haiku | Anthropic | 非常に高速で低コスト、単純なタスクに適している | 検索、基本的な要約などの高ボリューム、低レイテンシのニーズに最適 |
| Gemini 2.0 Flash | 非常に高速で費用対効果が高く、良好な汎用機能 | 要約、検索、ヘルパータスクに適している | ||
| GPT-4o mini | OpenAI | GPT-4o の高速で手頃なバージョン、多くのタスクに適している | より単純な機能のコスト/パフォーマンスの良好なバランス | |
| Llama 3.3 (例: 70B) | Meta | 強力なオープンソースモデル、多くの場合費用対効果の高い多目的オプション | プロバイダー/ホスティングによってパフォーマンスが異なる、互換性の確認が必要 | |
| ビジョン対応 | Claude 3.7 Sonnet | Anthropic | 強力なビジョン機能(両モード) | AI トリアージ/NSFW 検出に必要 |
| Gemini 2.5 Pro / 2.0 Flash | 強力なビジョン機能 | AI トリアージ/NSFW 検出に必要 | ||
| GPT-4o / GPT-4o mini | OpenAI | テキストとビジョンの統合 | AI トリアージ/NSFW 検出に必要 | |
| Llama 3.2 | Meta | オープンソースのビジョン機能 | 互換性/ホスティング/プロバイダーのサポートの確認が必要 | |
| Discourse Hosted LLM | Discourse | ホストサイト向けの事前構成済みビジョンモデル | 特定の機能設定(例:NSFW 検出)を確認してください | |
| Qwen-VL / その他 | 様々 | Discourse AI プラグインでサポートされている特定のビジョンモデルを確認してください | 設定が異なる場合があります |
一般的な推奨マッピング(簡略化):
- AI ボット(複雑な Q&A、ペルソナ): トップパフォーマンス/推論モデル(Claude 3.7 Sonnet - Thinking、R1、Gemini 2.5 Pro、o1-pro)または強力なバランスモデル(GPT-4o、Claude 3.7 Sonnet - Regular、o3-mini)。
- AI 検索: 費用対効果/速度モデル(Haiku 3.5、Gemini 2.0 Flash、GPT-4o mini、Llama 3.3)または、わずかに優れた理解のためのバランスモデル(GPT-4o、DeepSeek-V3)。
- AI ヘルパー(タイトル提案、校正): 費用対効果/速度モデルまたはバランスモデル。速度が好まれることが多いです。Claude 3.7 Sonnet (Regular) または GPT-4o mini が良い候補です。Llama 3.3 もここでうまく機能する可能性があります。
- 要約: バランスモデル(Claude 3.7 Sonnet - Regular、GPT-4o、o3-mini、DeepSeek-V3)または費用対効果モデル(Gemini 2.0 Flash、Llama 3.3)。予算が許せば、長いトピックには長いコンテキストウィンドウ(Gemini 2.5 Pro、Sonnet 3.7)が役立ちます。
- スパム検出 / AI トリアージ(テキスト): 費用対効果/速度モデルで通常は十分で、費用対効果も高いです(Haiku 3.5、Gemini 2.0 Flash、GPT-4o mini、Llama 3.3)。
- AI トリアージ(NSFW 画像検出): ビジョン対応モデルが必要です(GPT-4o/mini、Sonnet 3.7、Gemini 2.5 Pro/2.0 Flash、Llama 3.2、特定の Discourse ホスト/サポートモデル)。
選択した LLM を Discourse 管理設定の関連 AI 機能の下に構成することを忘れないでください。