Discourse AIはサードパーティのリレー/プロキシAPI(例:NewAPI)をサポートしていますか?「Internal Server Error」が表示されます

皆さん、こんにちは。

Discourse AI のサードパーティ製リレー/プロキシ API のサポートについて質問があります。

NewAPI(サードパーティ製の OpenAI 互換プロキシ)のリレー API を試したところ、Discourse AI は「Internal Server Error」(内部サーバーエラー)を返しました。これは私の設定の問題なのか、それとも Discourse AI の制限なのかわかりません。

そこで、次の点について疑問に思っています。

  1. Discourse AI は現在、OpenAI 互換のサードパーティ製 / リレー / プロキシ API をサポートしていますか?

  2. それとも、現時点では 公式の OpenAI および Google API のみサポートしていますか?

  3. サードパーティ API がサポートされている場合、特別な設定(ヘッダー、ベース URL 形式、モデル名など)が必要ですか?

独自の公式 API キーを使用すると費用がかさむため、可能であればより安価なリレーオプションを使用したいと考えています。
また、画像生成のために Google BananaPro を接続して楽しみたいと思っています。これもサポートされているかどうかわかりません。

何かヒントやドキュメントがあれば幸いです。よろしくお願いします!

当社には、OpenAI互換プロキシ経由で毎日数千回のAI呼び出しを行っているお客様がおり、それが機能することはわかっています。主な問題は、「OpenAI互換」と言ったときに、実際にどれだけ互換性があるかということです。

vLLM、Google、Ollama、LMStudioはすべて、当社がテストし日常的に使用しているOpenAI互換APIを提供しています。

特定のプロバイダーが失敗している場合、通常は/logsページのログから理由を簡単に見つけることができます。そこからエラーを共有していただけますか?

「いいね!」 1

ご返信ありがとうございます。明日、いくつかのサードパーティAPIを試してみます。

discourse ai は、openrouter や newapi など、私が知っているほぼすべてのサードパーティ API をサポートしています

llm 設定を設定するだけです
image

API ベース URL、API キー、モデル名を入力します
image

「いいね!」 1

お兄さん、返信ありがとうございます。

image

でも、この返信は変ですね。

Discourseではシステムプロンプトを入力する必要がありますが、システムプロンプトを入力せず、単に「.」だけを入力しました。

ユーザーが@でメンションした質問に対して、モデルが直接回答するだけでいいのですが、まだ設定方法がわかりません。

@ロボットとメンションしたとき、なぜかデフォルトで「カスタムプロンプト」のプロンプトが使われているようです(返信の形式から、このカスタムプロンプトだけが一致していることがわかりました)。以下に画像を示します。変更しても無効になるので、どういうことなのかわかりません。

image

AI helper custom prompt persona を設定する前に、新しいペルソナを作成できます。
image

image