AIプラグインに関して質問があります。現在、OpenAIしか選択肢として表示されていません。Ollamaのようなローカルモデルや、独自のモデルをホストできる別のプログラムを使用することは可能でしょうか?これにより、トークンが無料になるため、コストを節約できます。
「いいね!」 1
はい、このプラグインは完全にプロバイダーに依存しないため、すぐにローカルLLMで使用できます。
「いいね!」 4
無料のopenrouterをお探しの場合は、常に無料でまともなモデルがいくつかあることに注意してください。例えば、非常に有能なモデルであるgrok 4.1 fastは本日無料です(これは数日ごとに変わります)。
これはDiscourse AIで完全にサポートされています。
ローカルモデルは動作するかもしれませんが、一般的にかなり弱いため、結果はかなり不均一になります。
「いいね!」 1
Geminiについては言うまでもありません… 私の意見では、無料プランは非常に寛大です。
ローカルLLMを使用できる場合、どうすればよいですか
Geminiを私のフォーラムでどのように使用すればよいですか?
Discourse AI - Large Language Model (LLM) settings page を参照してください。また、Getting discourse ai to work with ollama locally および Self-Hosting an OpenSource LLM for DiscourseAI も確認してください。
「いいね!」 3