J’ai une question concernant le plugin d’IA. Actuellement, je ne vois qu’OpenAI comme option. Est-il possible pour nous d’utiliser un modèle local, tel qu’Ollama, ou un autre programme qui nous permet d’héberger nos propres modèles ? Cela nous aiderait à réduire les coûts puisque les jetons seraient gratuits.
Oui, le plugin est totalement indépendant du fournisseur, vous pouvez l’utiliser avec un LLM local prêt à l’emploi.
Notez que si vous recherchez des modèles gratuits sur openrouter, vous trouverez toujours quelques modèles gratuits et décents, par exemple grok 4.1 fast, un modèle super compétent, est gratuit aujourd’hui (et cela change tous les quelques jours).
Ceci est entièrement pris en charge dans Discourse AI.
Les modèles locaux peuvent fonctionner, mais ils sont généralement assez faibles, donc vos résultats seront assez inégaux.
Sans oublier Gemini… À mon humble avis, le forfait gratuit est très généreux.
si je peux utiliser un modèle de langage local (LLM) comment dois-je faire
comment puis-je utiliser gemini sur mon forum s’il vous plaît
Voir Discourse AI - Large Language Model (LLM) settings page. Consultez également Getting discourse ai to work with ollama locally et Self-Hosting an OpenSource LLM for DiscourseAI.