Ça fonctionne très bien avec Ollama, plusieurs personnes dans l’équipe l’utilisent.
Falco
(Falco)
4
Sujets connexes
| Sujet | Réponses | Vues | Activité | |
|---|---|---|---|---|
| Discourse AI with local ollama Internal Server Error | 2 | 72 | Décembre 28, 2025 | |
| Local Ollama is not working with the Plugin | 4 | 210 | Octobre 15, 2025 | |
| Internal Server Error 500- Manual configuration [ Discourse AI] | 8 | 224 | Septembre 5, 2025 | |
| Inquiry About AI Plugin Options | 7 | 133 | Novembre 24, 2025 | |
| Self-Hosting an OpenSource LLM for DiscourseAI | 7 | 3588 | Janvier 20, 2026 |