Discourse Meta
Настройка работы Discourse AI с Ollama локально
Поддержка
ai
Falco
(Falco)
19.Февраль.2025 19:25:49
6
Set the URL to
http://localhost:11434/v1/chat/completions
1 лайк
показать публикацию в теме
Связанные темы
Тема
Ответов
Просм.
Активность
Discourse AI with local ollama Internal Server Error
Bug
ai
2
65
28.12.2025
Local Ollama is not working with the Plugin
Support
ai
4
195
15.10.2025
Internal Server Error 500- Manual configuration [ Discourse AI]
Support
ai
8
218
05.09.2025
Inquiry About AI Plugin Options
Support
ai
7
121
24.11.2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
7
3559
20.01.2026