Discourse Meta
Discourse AI mit Ollama lokal zum Laufen bringen
Unterstützung
ai
Falco
(Falco)
19. Februar 2025 um 19:25
6
Set the URL to
http://localhost:11434/v1/chat/completions
1 „Gefällt mir“
Beitrag im Thema anzeigen
Verwandte Themen
Thema
Antworten
Aufrufe
Aktivität
Internal Server Error 500- Manual configuration [ Discourse AI]
Support
ai
2
44
25. August 2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
2975
21. Februar 2025
Discourse AI
Plugin
official
,
included-in-core
,
ai
83
35781
13. August 2025
Discourse AI - Self-Hosted Guide
Self-Hosting
ai
61
11690
30. April 2025
Create custom LLM plugin or any other option?
Support
4
80
25. Februar 2025