Discourse Meta
我可以添加其他的LLM吗?
支持
ai
sam
(Sam Saffron)
2024 年8 月 1 日 00:01
3
It works with VLLM, you can can just configure a VLLM endpoint and it should work out of the box.
6 个赞
Debugging adding new LLM
Rebuilding Discourse after invalid GitHub repo addition
在话题中显示帖子
相关话题
话题
回复
浏览量
活动
DeepSeek provider support? What to do when model provider isn't in "Provider" list?
Support
ai
13
642
2025 年3 月 5 日
Debugging adding new LLM
Support
ai
8
264
2024 年8 月 23 日
How to configure Discourse to use a locally installed LLM?
Support
ai
8
144
2025 年9 月 17 日
Create custom LLM plugin or any other option?
Support
4
90
2025 年2 月 25 日
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
3069
2025 年2 月 21 日