Discourse Meta
Posso aggiungere altri LLM?
Supporto
ai
sam
(Sam Saffron)
1 Agosto 2024, 12:01am
3
It works with VLLM, you can can just configure a VLLM endpoint and it should work out of the box.
6 Mi Piace
Debugging adding new LLM
Rebuilding Discourse after invalid GitHub repo addition
mostra messaggio in argomento
Argomenti correlati
Argomento
Risposte
Visualizzazioni
AttivitĂ
DeepSeek provider support? What to do when model provider isn't in "Provider" list?
Support
ai
13
597
Marzo 5, 2025
Debugging adding new LLM
Support
ai
8
212
Agosto 23, 2024
How to configure Discourse to use a locally installed LLM?
Support
ai
7
131
Giugno 3, 2025
Create custom LLM plugin or any other option?
Support
4
81
Febbraio 25, 2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
2979
Febbraio 21, 2025