Discourse Meta
我可以添加其他的LLM吗?
支持
ai
sam
(Sam Saffron)
2024 年8 月 1 日 00:01
3
It works with VLLM, you can can just configure a VLLM endpoint and it should work out of the box.
6 个赞
Debugging adding new LLM
Rebuilding Discourse after invalid GitHub repo addition
在话题中显示帖子
相关话题
话题
回复
浏览量
活动
DeepSeek provider support? What to do when model provider isn't in "Provider" list?
Support
ai
13
599
2025 年3 月 5 日
Debugging adding new LLM
Support
ai
8
212
2024 年8 月 23 日
How to configure Discourse to use a locally installed LLM?
Support
ai
7
131
2025 年6 月 3 日
Create custom LLM plugin or any other option?
Support
4
81
2025 年2 月 25 日
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
2980
2025 年2 月 21 日