Discourse Meta
关于AI插件选项的咨询
支持
ai
Falco
(Falco)
2025 年11 月 24 日 01:18
2
是的,该插件完全不依赖于特定的提供商,您可以直接使用本地 LLM(大型语言模型)。
4 个赞
在话题中显示帖子
相关话题
话题
回复
浏览量
活动
Getting discourse ai to work with ollama locally
Support
ai
15
395
2025 年4 月 6 日
Discourse AI with local ollama Internal Server Error
Bug
ai
2
38
2025 年12 月 28 日
How to configure Discourse to use a locally installed LLM?
Support
ai
8
200
2025 年9 月 17 日
Create custom LLM plugin or any other option?
Support
4
114
2025 年2 月 25 日
Configuring OpenRouter language models
Integrations
ai
0
661
2024 年12 月 10 日