Consulta sobre opções de plugin de IA

Tenho uma pergunta sobre o plugin de IA. Atualmente, só vejo a OpenAI como opção. Seria possível usarmos um modelo local, como o Ollama, ou outro programa que nos permita hospedar nossos próprios modelos? Isso nos ajudaria a economizar custos, já que os tokens seriam gratuitos.

1 curtida

Sim, o plugin é completamente independente de provedor, você pode usá-lo com um LLM local imediatamente.

4 curtidas

Note que se você estiver procurando por openrouter gratuito, sempre haverá alguns modelos que são gratuitos e decentes, por exemplo, grok 4.1 fast, um modelo super competente, está gratuito hoje (e isso muda a cada poucos dias).

Isso é totalmente suportado no Discourse AI.

Modelos locais podem funcionar, mas geralmente são bem fracos, então seus resultados serão bem irregulares.

1 curtida

Sem mencionar o Gemini… Na minha opinião, o plano gratuito é muito generoso.

se eu puder usar um LLM local como eu faço

como eu uso o gemini no meu fórum, por favor

Veja Discourse AI - Large Language Model (LLM) settings page. Consulte também Getting discourse ai to work with ollama locally e Self-Hosting an OpenSource LLM for DiscourseAI.

3 curtidas