Discourse Meta
Posso adicionar outros LLM?
Suporte
ai
sam
(Sam Saffron)
Agosto 1, 2024, 12:01am
3
It works with VLLM, you can can just configure a VLLM endpoint and it should work out of the box.
6 curtidas
Debugging adding new LLM
Rebuilding Discourse after invalid GitHub repo addition
exibir postagem no tópico
Tópicos relacionados
Tópico
Respostas
Visualizações
Atividade
DeepSeek provider support? What to do when model provider isn't in "Provider" list?
Support
ai
13
601
5 de Março de 2025
Debugging adding new LLM
Support
ai
8
215
23 de Agosto de 2024
How to configure Discourse to use a locally installed LLM?
Support
ai
7
133
3 de Junho de 2025
Create custom LLM plugin or any other option?
Support
4
81
25 de Fevereiro de 2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
2981
21 de Fevereiro de 2025