Discourse Meta
Fazendo o discourse ai funcionar com o ollama localmente
Suporte
ai
Falco
(Falco)
Fevereiro 19, 2025, 7:25pm
6
Set the URL to
http://localhost:11434/v1/chat/completions
1 curtida
exibir postagem no tópico
Tópicos relacionados
Tópico
Respostas
Visualizações
Atividade
Internal Server Error 500- Manual configuration [ Discourse AI]
Support
ai
2
42
25 de Agosto de 2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
2975
21 de Fevereiro de 2025
Discourse AI
Plugin
official
,
included-in-core
,
ai
83
35768
13 de Agosto de 2025
Discourse AI - Self-Hosted Guide
Self-Hosting
ai
61
11686
30 de Abril de 2025
Create custom LLM plugin or any other option?
Support
4
80
25 de Fevereiro de 2025