Discourse Meta
Faire fonctionner Discourse AI avec Ollama localement
Soutien
ai
Falco
(Falco)
Février 19, 2025, 7:25
6
Set the URL to
http://localhost:11434/v1/chat/completions
1 « J'aime »
afficher la publication dans le sujet
Sujets connexes
Sujet
Réponses
Vues
Activité
Internal Server Error 500- Manual configuration [ Discourse AI]
Support
ai
3
55
Août 28, 2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
2979
Février 21, 2025
Discourse AI
Plugin
official
,
included-in-core
,
ai
83
35813
Août 13, 2025
Discourse AI - Self-Hosted Guide
Self-Hosting
ai
61
11695
Avril 30, 2025
Create custom LLM plugin or any other option?
Support
4
81
Février 25, 2025