カスタムLLMプラグインを作成するか、他の選択肢は?

皆さん、こんにちは。

社内ネットワーク内で Discourse ボードをホストしています。ChatGPT やその他の公開 LLM を統合することはできませんが、社内には AI モジュール(GPT を含む)の内部サービスを作成する大きな取り組みがあります。
ただし、独自の API があるため、カスタム LLM プラグインを作成できるかどうかお伺いしたいと思います。
または、他にどのような選択肢がありますか?

この内部 API への呼び出しは認証される必要があり、API 自体には別の API キーが必要なため、事前に提供する必要のある必須情報がいくつかあります。

何かお手伝いいただければ幸いです。

よろしくお願いいたします。

WS

現在のプラグインでカスタムモデルやエンドポイントを使用できます。

その後、さらに機能を追加する必要がある場合は、独自のプラグインをフォークして維持することもできます。

はい、可能ですが、AIプラグインをインストールして、すでにサポートされている機能を確認しましたか?

内部エンドポイントがOpenAIタイプのAPIインターフェースを使用している限り、Discourse AIをそのまま使用でき、カスタムLLMを定義するだけで済みます。

試してみます。ただし、1つ大きな懸念事項があります。それは認証です。
APIキーだけでなく、OIDCベース(社内ポリシーのため :slight_smile: )でもあります……

つまり、ボードがこのAPIに対してリクエストを行う方法を何らかの方法でカスタマイズする必要があるということです。フォークして自分でやる以外に可能でしょうか?

皆さん、いつも素晴らしいですね :+1: