Discourse Meta
Haciendo que Discourse AI funcione con ollama localmente
Soporte
ai
Falco
(Falco)
19 Febrero, 2025 19:25
6
Set the URL to
http://localhost:11434/v1/chat/completions
1 me gusta
mostrar publicación en el tema
Temas relacionados
Tema
Respuestas
Vistas
Actividad
Internal Server Error 500- Manual configuration [ Discourse AI]
Support
ai
8
114
5 Septiembre 2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
3068
21 Febrero 2025
Discourse AI - Self-Hosted Guide
Self-Hosting
ai
61
11983
30 Abril 2025
Discourse AI
Plugin
included-in-core
,
ai
,
official
88
36756
13 Octubre 2025
Create custom LLM plugin or any other option?
Support
4
90
25 Febrero 2025