tom_eric
(tom eric )
1
皆さん、こんにちは。
Discourse AI のサードパーティ製リレー/プロキシ API のサポートについて質問があります。
NewAPI(サードパーティ製の OpenAI 互換プロキシ)のリレー API を試したところ、Discourse AI は「Internal Server Error」(内部サーバーエラー)を返しました。これは私の設定の問題なのか、それとも Discourse AI の制限なのかわかりません。
そこで、次の点について疑問に思っています。
-
Discourse AI は現在、OpenAI 互換のサードパーティ製 / リレー / プロキシ API をサポートしていますか?
-
それとも、現時点では 公式の OpenAI および Google API のみサポートしていますか?
-
サードパーティ API がサポートされている場合、特別な設定(ヘッダー、ベース URL 形式、モデル名など)が必要ですか?
独自の公式 API キーを使用すると費用がかさむため、可能であればより安価なリレーオプションを使用したいと考えています。
また、画像生成のために Google BananaPro を接続して楽しみたいと思っています。これもサポートされているかどうかわかりません。
何かヒントやドキュメントがあれば幸いです。よろしくお願いします!
Falco
(Falco)
2
当社には、OpenAI互換プロキシ経由で毎日数千回のAI呼び出しを行っているお客様がおり、それが機能することはわかっています。主な問題は、「OpenAI互換」と言ったときに、実際にどれだけ互換性があるかということです。
vLLM、Google、Ollama、LMStudioはすべて、当社がテストし日常的に使用しているOpenAI互換APIを提供しています。
特定のプロバイダーが失敗している場合、通常は/logsページのログから理由を簡単に見つけることができます。そこからエラーを共有していただけますか?
「いいね!」 1
tom_eric
(tom eric )
3
ご返信ありがとうございます。明日、いくつかのサードパーティAPIを試してみます。
discourse ai は、openrouter や newapi など、私が知っているほぼすべてのサードパーティ API をサポートしています
llm 設定を設定するだけです

API ベース URL、API キー、モデル名を入力します

「いいね!」 1
tom_eric
(tom eric )
5
お兄さん、返信ありがとうございます。

でも、この返信は変ですね。
Discourseではシステムプロンプトを入力する必要がありますが、システムプロンプトを入力せず、単に「.」だけを入力しました。
ユーザーが@でメンションした質問に対して、モデルが直接回答するだけでいいのですが、まだ設定方法がわかりません。
@ロボットとメンションしたとき、なぜかデフォルトで「カスタムプロンプト」のプロンプトが使われているようです(返信の形式から、このカスタムプロンプトだけが一致していることがわかりました)。以下に画像を示します。変更しても無効になるので、どういうことなのかわかりません。

AI helper custom prompt persona を設定する前に、新しいペルソナを作成できます。

