Discourse Meta
¿Puedo agregar otros LLM?
Soporte
ai
sam
(Sam Saffron)
1 Agosto, 2024 00:01
3
Funciona con VLLM, puedes configurar un endpoint de VLLM y debería funcionar directamente.
6 Me gusta
Debugging adding new LLM
Rebuilding Discourse after invalid GitHub repo addition
mostrar publicación en el tema
Temas relacionados
Tema
Respuestas
Vistas
Actividad
DeepSeek provider support? What to do when model provider isn't in "Provider" list?
Support
ai
13
711
5 Marzo 2025
Debugging adding new LLM
Support
ai
8
288
23 Agosto 2024
How to configure Discourse to use a locally installed LLM?
Support
ai
8
173
17 Septiembre 2025
Create custom LLM plugin or any other option?
Support
4
98
25 Febrero 2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
3188
21 Febrero 2025