Discourse Meta
Posso aggiungere altri LLM?
Supporto
ai
sam
(Sam Saffron)
1 Agosto 2024, 12:01am
3
Funziona con VLLM, puoi semplicemente configurare un endpoint VLLM e dovrebbe funzionare subito.
6 Mi Piace
Debugging adding new LLM
Rebuilding Discourse after invalid GitHub repo addition
mostra messaggio in argomento
Argomenti correlati
Argomento
Risposte
Visualizzazioni
Attività
DeepSeek provider support? What to do when model provider isn't in "Provider" list?
Support
ai
13
709
Marzo 5, 2025
Debugging adding new LLM
Support
ai
8
288
Agosto 23, 2024
How to configure Discourse to use a locally installed LLM?
Support
ai
8
173
Settembre 17, 2025
Create custom LLM plugin or any other option?
Support
4
97
Febbraio 25, 2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
3186
Febbraio 21, 2025