Discourse Meta
Kann ich ein anderes LLM hinzufügen?
Unterstützung
ai
sam
(Sam Saffron)
1. August 2024 um 00:01
3
It works with VLLM, you can can just configure a VLLM endpoint and it should work out of the box.
6 „Gefällt mir“
Debugging adding new LLM
Rebuilding Discourse after invalid GitHub repo addition
Beitrag im Thema anzeigen
Verwandte Themen
Thema
Antworten
Aufrufe
Aktivität
DeepSeek provider support? What to do when model provider isn't in "Provider" list?
Support
ai
13
599
5. März 2025
Debugging adding new LLM
Support
ai
8
213
23. August 2024
How to configure Discourse to use a locally installed LLM?
Support
ai
7
132
3. Juni 2025
Create custom LLM plugin or any other option?
Support
4
81
25. Februar 2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
2981
21. Februar 2025