OpenRouter言語モデルの設定

:bookmark: このガイドでは、サードパーティの LLM キーを必要とする Discourse AI の機能を有効にするために、OpenRouter の API キーを設定する方法を説明します。

:person_raising_hand: 必要なユーザーレベル: 管理者

このガイドでは、統合された API を通じて複数の大規模言語モデルへのアクセスを提供するサービスである OpenRouter の設定方法を説明します。

: OpenRouter のプランと設定済みの API キーが必要です

API キーの取得

  1. OpenRouter にアクセスします
  2. アカウントにサインアップします
  3. ダッシュボードに移動して、API キーを見つけます

Discourse AI で OpenRouter がサポートするモデル

Discourse AI は現在、OpenRouter 上のすべてのモデルをサポートしています。次のモデルは、ワンクリック プリセットとして利用できます。

  • DeepSeek V3.2 (最大 163k トークン)
  • Moonshot Kimi K2.5 (最大 262k トークン)
  • xAI Grok 4 Fast (最大 131k トークン)
  • MiniMax M2.5 (最大 196k トークン)
  • Z-AI GLM-5 (最大 204k トークン)
  • Arcee Trinity Large - Free (最大 128k トークン)

OpenRouter で利用可能なその他のモデルは、手動で設定できます。

Discourse AI での API キーの使用

  1. 管理プラグインAILLM タブに移動します
  2. プリセット テンプレートとしてリストされている OpenRouter モデルが表示されます。設定したいモデルの隣にある 設定 ボタンをクリックします。これにより、プロバイダー、モデル ID、エンドポイント、およびトークナイザーが事前に入力されるため、API キーを入力するだけです。

その他のモデルの手動設定

プリセットとしてリストされていない OpenRouter モデルを使用するには:

  1. 「手動設定」の 設定 ボタンをクリックします
  2. 次の設定を行います。
  • プロバイダー: 「OpenRouter」を選択します
  • モデル ID: モデル ID を入力します (例: “deepseek/deepseek-v3.2”)
  • API キー: OpenRouter API キー
  • エンドポイント URL: https://openrouter.ai/api/v1/chat/completions
  • トークナイザー: OpenAiTokenizer を使用します

高度な設定オプション

Discourse AI の OpenRouter は、追加の設定オプションをサポートしています。

  1. プロバイダーの順序: 試行するプロバイダーの順序を指定できます (コンマ区切りリスト)
    例: 「Google, Amazon Bedrock」

  2. プロバイダーの量子化: 量子化の優先順位を指定します (コンマ区切りリスト)
    例: 「fp16,fp8」

  3. ストリーミングの無効化: モデルからのストリーミング応答を無効にしたい場合は、このオプションを有効にします。

ネイティブ ツールのサポートを無効にする必要がありますか?

Open Router 上の一部のモデルはネイティブ ツールをサポートしていないため、その場合はネイティブ ツールを無効にして、XML ベースのツールを引き続き取得できるようにする必要があります。さらに、パフォーマンスが異なるため、モデルに対して XML ツールとネイティブ ツールのどちらがより良い結果をもたらすかテストする必要があります。

  • XML ベースのツール実装を使用するには、「ネイティブ ツールを無効にする」を有効にします
  • ネイティブ ツール実装を使用するには、無効のままにします
「いいね!」 7