Richiesta informazioni sulle opzioni dei plugin AI

Ho una domanda riguardo al plugin AI. Attualmente vedo solo OpenAI come opzione. È possibile utilizzare un modello locale, come Ollama, o un altro programma che ci permetta di ospitare i nostri modelli? Questo ci aiuterebbe a risparmiare sui costi poiché i token sarebbero gratuiti.

1 Mi Piace

Sì, il plugin è completamente indipendente dal provider, puoi usarlo con un LLM locale fin da subito.

4 Mi Piace

Nota: se stai cercando modelli gratuiti su openrouter, ci sono sempre alcuni modelli gratuiti e decenti, ad esempio grok 4.1 fast, un modello super competente, è gratuito oggi (e questo cambia ogni pochi giorni).

Questo è completamente supportato in Discourse AI.

I modelli locali potrebbero funzionare, ma generalmente sono piuttosto deboli, quindi i tuoi risultati saranno piuttosto irregolari.

1 Mi Piace

Per non parlare di Gemini… Secondo me, il piano gratuito è molto generoso.

se posso usare un LLM locale come faccio

come posso usare Gemini sul mio forum per favore

Vedi Discourse AI - Large Language Model (LLM) settings page. Dai un’occhiata anche a Getting discourse ai to work with ollama locally e Self-Hosting an OpenSource LLM for DiscourseAI.

3 Mi Piace