Discourse Meta
让Discourse AI在本地与Ollama协作
支持
ai
Falco
(Falco)
2025 年2 月 19 日 19:25
6
Set the URL to
http://localhost:11434/v1/chat/completions
1 个赞
在话题中显示帖子
相关话题
话题
回复
浏览量
活动
Local Ollama is not working with the Plugin
Support
ai
3
38
2025 年10 月 15 日
Internal Server Error 500- Manual configuration [ Discourse AI]
Support
ai
8
116
2025 年9 月 5 日
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
3081
2025 年2 月 21 日
Discourse AI - Self-Hosted Guide
Self-Hosting
ai
61
12040
2025 年4 月 30 日
Create custom LLM plugin or any other option?
Support
4
91
2025 年2 月 25 日