Ich habe eine Frage bezüglich des KI-Plugins. Derzeit sehe ich nur OpenAI als Option. Wäre es möglich, ein lokales Modell wie Ollama oder ein anderes Programm zu verwenden, mit dem wir unsere eigenen Modelle hosten können? Dies würde uns helfen, Kosten zu sparen, da die Tokens kostenlos wären.
Ja, das Plugin ist völlig anbieterunabhängig, Sie können es sofort mit einem lokalen LLM verwenden.
Beachten Sie, wenn Sie nach kostenlosem OpenRouter suchen, gibt es immer ein paar Modelle, die kostenlos und anständig sind, zum Beispiel grok 4.1 fast, ein super kompetentes Modell, ist heute kostenlos (und das ändert sich alle paar Tage).
Dies wird in Discourse AI vollständig unterstützt.
Lokale Modelle funktionieren möglicherweise, sind aber im Allgemeinen ziemlich schwach, sodass Ihre Ergebnisse recht ungleichmäßig sein werden.
Ganz zu schweigen von Gemini… Meiner Meinung nach ist der kostenlose Plan sehr großzügig.
wenn ich ein lokales LLM verwenden kann, wie mache ich das
Wie benutze ich Gemini in meinem Forum?
Siehe Discourse AI - Large Language Model (LLM) settings page. Siehe auch Getting discourse ai to work with ollama locally und Self-Hosting an OpenSource LLM for DiscourseAI.