Discourse Meta
Getting discourse ai to work with ollama locally
Поддержка
ai
Falco
(Falco)
19.Февраль.2025 19:25:49
6
Set the URL to
http://localhost:11434/v1/chat/completions
1 лайк
показать публикацию в теме
Связанные темы
Тема
Ответов
Просм.
Активность
Discourse AI with local ollama Internal Server Error
Bug
ai
2
64
28.12.2025
Local Ollama is not working with the Plugin
Support
ai
4
190
15.10.2025
Internal Server Error 500- Manual configuration [ Discourse AI]
Support
ai
8
213
05.09.2025
Inquiry About AI Plugin Options
Support
ai
7
109
24.11.2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
7
3541
20.01.2026