Ho una domanda riguardo al plugin AI. Attualmente vedo solo OpenAI come opzione. È possibile utilizzare un modello locale, come Ollama, o un altro programma che ci permetta di ospitare i nostri modelli? Questo ci aiuterebbe a risparmiare sui costi poiché i token sarebbero gratuiti.
Sì, il plugin è completamente indipendente dal provider, puoi usarlo con un LLM locale fin da subito.
Nota: se stai cercando modelli gratuiti su openrouter, ci sono sempre alcuni modelli gratuiti e decenti, ad esempio grok 4.1 fast, un modello super competente, è gratuito oggi (e questo cambia ogni pochi giorni).
Questo è completamente supportato in Discourse AI.
I modelli locali potrebbero funzionare, ma generalmente sono piuttosto deboli, quindi i tuoi risultati saranno piuttosto irregolari.
Per non parlare di Gemini… Secondo me, il piano gratuito è molto generoso.
se posso usare un LLM locale come faccio
come posso usare Gemini sul mio forum per favore
Vedi Discourse AI - Large Language Model (LLM) settings page. Dai un’occhiata anche a Getting discourse ai to work with ollama locally e Self-Hosting an OpenSource LLM for DiscourseAI.