Dieser Leitfaden behandelt die Seite mit den LLM-Einstellungen, die Teil des Discourse AI-Plugins ist.
Erforderliches Benutzerniveau: Administrator
Die dedizierte Einstellungsseite wurde entwickelt, um alles, was mit großen Sprachmodellen (LLMs) zu tun hat, die für Discourse AI-Funktionen verwendet werden, an einem Ort zu bündeln.
Abhängig von der aktivierten Discourse AI-Funktion kann ein LLM erforderlich sein. Bitte überprüfen Sie jede Discourse AI-Funktion, um festzustellen, ob ein LLM eine Voraussetzung ist.
Neue Modelle hinzufügen, mit vorab ausgefüllten Informationen
Benutzerdefinierte Modelle hinzufügen, die nicht aufgeführt sind
LLM-Einstellungen konfigurieren
Spezifische LLM-Nutzung für AI-Bot zulassen
AI-Bot-Benutzernamen anzeigen
Vision-Unterstützung aktivieren (modellabhängig)
Zulässige Anhangstypen konfigurieren
Nutzungskontingente pro Gruppe einrichten
Eingabe-/Ausgabetokenkosten verfolgen
Testen
Einstellungen speichern
Hinzufügen von LLM-Verbindungen
Gehen Sie zu Admin → Plugins → AI
Gehen Sie zur Registerkarte LLMs
Fügen Sie eine neue Verbindung hinzu, wählen Sie Ihr Modell aus
Fügen Sie den API-Schlüssel hinzu (abhängig vom Modell müssen Sie möglicherweise weitere Felder manuell eingeben) und speichern Sie
(Optional) Testen Sie Ihre Verbindung, um sicherzustellen, dass sie funktioniert
Unterstützte LLMs
Sie können immer eine benutzerdefinierte Option hinzufügen, wenn Ihr Modell nicht aufgeführt ist. Unterstützte Modelle werden ständig hinzugefügt. Vorab konfigurierte Modelle sind Vorlagen – Sie können immer das gleiche Ergebnis mit der „Manuellen Konfiguration“ erzielen. Anthropic
Claude Opus 4.6
Claude Sonnet 4.6
Claude Haiku 4.5 Google
Gemini 3 Pro
Gemini 3 Flash OpenAI
GPT-5.4
GPT-5 Mini
GPT-5 Nano Open Router
DeepSeek V3.2
Moonshot Kimi K2.5
xAI Grok 4 Fast
MiniMax M2.5
Z-AI GLM-5
… und viele, viele mehr
Darüber hinaus können gehostete Kunden das auf der Einstellungsseite vorab konfigurierte CDCK Hosted Small LLM verwenden. Dies ist ein Open-Weights LLM, das von Discourse gehostet wird und bereit ist, KI-Funktionen zu unterstützen.
Konfigurationsfelder
Sie sehen nur die Felder, die für Ihren ausgewählten LLM-Anbieter relevant sind. Bitte überprüfen Sie alle vorab ausgefüllten Felder mit dem entsprechenden Anbieter, wie z. B. Model name Kernfelder:
Display name — Der Anzeigename, der in Dropdown-Menüs angezeigt wird
Model name — Die an die API gesendete Modellkennung (z. B. claude-sonnet-4-6, gpt-5.2)
Provider — Der Dienst, der das Modell hostet (z. B. Anthropic, OpenAI, Google, AWS Bedrock, Azure, Open Router usw.)
URL — Die API-Endpunkt-URL (nicht für AWS Bedrock angezeigt)
API Key — Konfiguriert über das AI Secrets-System
Tokenizer
Max prompt tokens — Steuert das Zuschneiden der Eingabeaufforderung, um überdimensionierte Anfragen zu vermeiden
Max output tokens
Input cost / Output cost — Kosten pro Million Tokens, verwendet für die Nutzungsnachverfolgung
Cached input cost / Cache write cost — für Anbieter, die Prompt-Caching unterstützen
Vision enabled — Aktiviert die Bilderkennung (modellabhängig)
Allowed attachment types — Dateitypen, die das Modell verarbeiten kann Anbieterspezifische Felder (werden dynamisch basierend auf dem ausgewählten Anbieter angezeigt):
OpenAI: Organization ID, Reasoning effort, Service tier
Google: Enable thinking, Thinking level
Open Router: Provider order, Provider quantizations Kontingente (nach dem ersten Speichern verfügbar):
Nutzungskontingente pro Gruppe können mit maximalen Tokens, maximaler Nutzung und Dauer konfiguriert werden
Technisches FAQ
Was ist ein Tokenizer?
Der Tokenizer übersetzt Zeichenfolgen in Tokens, was das ist, was ein Modell verwendet, um die Eingabe zu verstehen. Welche Zahl sollte ich fürMax prompt tokensverwenden?
Eine gute Faustregel ist 50 % des Modell-Kontextfensters, was die Summe der gesendeten Tokens und der generierten Tokens ist. Wenn die Eingabeaufforderung zu groß wird, schlägt die Anfrage fehl. Diese Zahl wird verwendet, um die Eingabeaufforderung zuzuschneiden und dies zu verhindern.
Einschränkungen
Manchmal wird das gewünschte Modell möglicherweise nicht angezeigt. Obwohl Sie es manuell hinzufügen können, werden wir beliebte Modelle unterstützen, sobald sie herauskommen.
Es ist zu schwierig, ich weiß überhaupt nicht, wie ich es machen soll. Ich hoffe, spezifische Tutorials zu verschiedenen KIs, wie z. B. Google-Anmeldeeinstellungen, zu aktualisieren.
Hier gibt es viel zu entpacken. Welches LLM möchten Sie wofür auswählen?
Die CDCK LLMs sind nur für sehr spezifische Funktionen verfügbar. Um zu sehen, welche Sie benötigen, gehen Sie zu /admin/whats-new auf Ihrer Instanz und klicken Sie auf „Nur experimentelle Funktionen anzeigen“. Sie müssen diese aktivieren, um das CDCK LLM für bestimmte Funktionen freizuschalten.
Jedes LLM, das Sie außerhalb der CDCK LLMs definieren, ist für alle Funktionen verfügbar.
Gibt es auch ein Thema, das einen allgemeinen Überblick über das beste Kosten-/Qualitätsverhältnis gibt? Oder sogar, welche LLMs kostenlos für eine kleine Community und grundlegende Funktionalität verwendet werden können? Ich kann mich ins Detail vertiefen und herumspielen. Aber mir fehlt es ein wenig an Zeit.
Zum Beispiel interessiere ich mich nur für Spam-Erkennung und einen Profanitätsfilter. Das hatte ich kostenlos, aber diese Plugins sind veraltet oder werden es bald sein. Es wäre schön, wenn ich diese Funktionalität beibehalten könnte, ohne für ein LLM bezahlen zu müssen.
Fertig! Es war tatsächlich ziemlich einfach. Aber vielleicht ist es für jemanden, der nicht technisch versiert ist, immer noch etwas schwierig einzurichten. Zum Beispiel wurde der Modellname in den Einstellungen automatisch gesetzt, war aber nicht der richtige. Glücklicherweise erkannte ich den Modellnamen in einem Curl-Beispiel für Claude auf der API-Seite und dann funktionierte es
Die geschätzten Kosten für die Spam-Kontrolle liegen vielleicht bei 30 Cent pro Monat (ich habe kein riesiges Forum). Das ist also überschaubar! Ich habe zur Sicherheit ein Limit von 5 Euro in der API-Konsole festgelegt.
Ich verwende Claude 3.5, die Modell-ID ist standardmäßig claude-3-5-haiku, aber ich musste sie auf claude-3-5-haiku-20241022 ändern, sonst erhielt ich einen Fehler.
Gut zu wissen, ja manchmal gibt es vielleicht eine Diskrepanz. Die automatisch ausgefüllten Informationen sollten als Leitfaden dienen, was meistens funktioniert, aber in bestimmten Fällen wie Ihrem (angesichts all der verschiedenen Modelle und Anbieterkonfigurationen) nicht ausreicht.
Ich habe den Eröffnungspost dieses Leitfadens aktualisiert.
Gibt es eine Möglichkeit, IBM WatsonX über die aktuelle Konfigurationsverwaltung zu nutzen, oder würde dies zusätzliche Entwicklungsarbeit durch die Discourse-Mitarbeiter erfordern?