Discourse Meta
¿Puedo agregar otros LLM?
Soporte
ai
sam
(Sam Saffron)
1 Agosto, 2024 00:01
3
It works with VLLM, you can can just configure a VLLM endpoint and it should work out of the box.
6 Me gusta
Debugging adding new LLM
Rebuilding Discourse after invalid GitHub repo addition
mostrar publicación en el tema
Temas relacionados
Tema
Respuestas
Vistas
Actividad
DeepSeek provider support? What to do when model provider isn't in "Provider" list?
Support
ai
13
598
5 Marzo 2025
Debugging adding new LLM
Support
ai
8
212
23 Agosto 2024
How to configure Discourse to use a locally installed LLM?
Support
ai
7
131
3 Junio 2025
Create custom LLM plugin or any other option?
Support
4
81
25 Febrero 2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
2979
21 Febrero 2025