Tenho uma pergunta sobre o plugin de IA. Atualmente, só vejo a OpenAI como opção. Seria possível usarmos um modelo local, como o Ollama, ou outro programa que nos permita hospedar nossos próprios modelos? Isso nos ajudaria a economizar custos, já que os tokens seriam gratuitos.
Sim, o plugin é completamente independente de provedor, você pode usá-lo com um LLM local imediatamente.
Note que se você estiver procurando por openrouter gratuito, sempre haverá alguns modelos que são gratuitos e decentes, por exemplo, grok 4.1 fast, um modelo super competente, está gratuito hoje (e isso muda a cada poucos dias).
Isso é totalmente suportado no Discourse AI.
Modelos locais podem funcionar, mas geralmente são bem fracos, então seus resultados serão bem irregulares.
Sem mencionar o Gemini… Na minha opinião, o plano gratuito é muito generoso.
se eu puder usar um LLM local como eu faço
como eu uso o gemini no meu fórum, por favor
Veja Discourse AI - Large Language Model (LLM) settings page. Consulte também Getting discourse ai to work with ollama locally e Self-Hosting an OpenSource LLM for DiscourseAI.