关于AI插件选项的咨询

我有一个关于 AI 插件的问题。目前,我只看到 OpenAI 作为一个选项。我们是否可以使用本地模型,例如 Ollama,或者其他允许我们托管自己模型的程序?这将有助于我们节省成本,因为 token 将是免费的。

1 个赞

是的,该插件完全不依赖于特定的提供商,您可以直接使用本地 LLM(大型语言模型)。

4 个赞

请注意,如果您正在寻找免费的 openrouter,总是有一些免费且不错的模型可供选择,例如 grok 4.1 fast,一个非常称职的模型,今天就是免费的(这种情况每隔几天就会变化)。

这在 Discourse AI 中得到了完全支持。

本地模型可能可用,但通常很弱,因此您的结果会很不稳定。

1 个赞

更不用说 Gemini 了……在我看来,免费套餐非常慷慨。

如果我可以使用本地 LLM,我该如何操作

我该如何在我的论坛上使用 Gemini?

请参阅 https://meta.discourse.org/t/discourse-ai-large-language-model-llm-settings-page/319903。另请参阅 Getting discourse ai to work with ollama locallyhttps://meta.discourse.org/t/self-hosting-an-opensource-llm-for-discourseai/290923。

3 个赞