このガイドでは、サードパーティのLLMキーを必要とするDiscourse AI機能を有効にするために、OpenRouterのAPIキーを構成する方法について説明します。
必要なユーザーレベル:管理者
このガイドでは、統合されたAPIを通じて複数の大規模言語モデルへのアクセスを提供するサービスであるOpenRouterを構成します。
注意: OpenRouterからのプランと構成済みのAPIキーが必要です。
APIキーの取得
- OpenRouterにアクセスします。
- アカウントにサインアップします。
- ダッシュボードに移動して、APIキーを見つけます。
OpenRouterはDiscourse AIでどのモデルをサポートしていますか?
Discourse AIは現在、OpenRouterのすべてのモデルをサポートしています。これには以下が含まれます。
- Llama 3.3 70B(最大128kトークン)
- Gemini Flash 1.5 Exp(最大1Mトークン)
その他、OpenRouterプラットフォームを通じて利用可能な多くのモデルもサポートしています。
Discourse AIでAPIキーを使用する
- 「管理者」→「プラグイン」→「AI」→「LLM」タブに移動します。
- 「手動構成」の「セットアップ」ボタンをクリックします。
- 次の設定を構成します。
- プロバイダー: 「OpenRouter」を選択します。
- モデルID: モデルIDを入力します(例:「meta-llama/llama-3.3-70b-instruct」)。
- APIキー: OpenRouterのAPIキー。
- エンドポイントURL:
https://openrouter.ai/api/v1/chat/completions - トークナイザー: OpenAiTokenizerを使用します。
高度な構成オプション
Discourse AIのOpenRouterは、追加の構成オプションをサポートしています。
-
プロバイダーの順序: プロバイダーの試行順序を指定できます(カンマ区切りのリスト)。
例:「Google, Amazon Bedrock」 -
プロバイダーの量子化: 量子化の優先順位を指定します(カンマ区切りのリスト)。
例:「fp16,fp8」
ネイティブツールのサポートを無効にすべきか?
OpenRouterの一部のモデルはネイティブツールをサポートしていません。その場合は、XMLベースのツールを使用できるように、ネイティブツールを無効にする必要があります。また、パフォーマンスは異なるため、XMLツールとネイティブツールのどちらがモデルでより良い結果をもたらすかをテストする必要があります。
- XMLベースのツール実装を使用するには、「ネイティブツールの無効化」を有効にします。
- ネイティブツールの実装を使用するには、無効のままにします。