Discourse AI - Einstellungen für das Large Language Model (LLM)

:bookmark: Dieser Leitfaden behandelt die Seite mit den LLM-Einstellungen, die Teil des Discourse AI-Plugins ist.

:person_raising_hand: Erforderliches Benutzerniveau: Administrator

Die dedizierte Einstellungsseite wurde entwickelt, um alles, was mit großen Sprachmodellen (LLMs) zu tun hat, die für Discourse AI-Funktionen verwendet werden, an einem Ort zu bündeln.

:raised_hand_with_fingers_splayed: Abhängig von der aktivierten Discourse AI-Funktion kann ein LLM erforderlich sein. Bitte überprüfen Sie jede Discourse AI-Funktion, um festzustellen, ob ein LLM eine Voraussetzung ist.


Funktionen

  • Neue Modelle hinzufügen, mit vorab ausgefüllten Informationen
  • Benutzerdefinierte Modelle hinzufügen, die nicht aufgeführt sind
  • LLM-Einstellungen konfigurieren
  • Spezifische LLM-Nutzung für AI-Bot zulassen
    • AI-Bot-Benutzernamen anzeigen
  • Vision-Unterstützung aktivieren (modellabhängig)
  • Zulässige Anhangstypen konfigurieren
  • Nutzungskontingente pro Gruppe einrichten
  • Eingabe-/Ausgabetokenkosten verfolgen
  • Testen
  • Einstellungen speichern

Hinzufügen von LLM-Verbindungen

  1. Gehen Sie zu AdminPluginsAI
  2. Gehen Sie zur Registerkarte LLMs
  3. Fügen Sie eine neue Verbindung hinzu, wählen Sie Ihr Modell aus
  4. Fügen Sie den API-Schlüssel hinzu (abhängig vom Modell müssen Sie möglicherweise weitere Felder manuell eingeben) und speichern Sie
  5. (Optional) Testen Sie Ihre Verbindung, um sicherzustellen, dass sie funktioniert

Unterstützte LLMs

:person_tipping_hand: Sie können immer eine benutzerdefinierte Option hinzufügen, wenn Ihr Modell nicht aufgeführt ist. Unterstützte Modelle werden ständig hinzugefügt. Vorab konfigurierte Modelle sind Vorlagen – Sie können immer das gleiche Ergebnis mit der „Manuellen Konfiguration“ erzielen.
Anthropic

  • Claude Opus 4.6
  • Claude Sonnet 4.6
  • Claude Haiku 4.5
    Google
  • Gemini 3 Pro
  • Gemini 3 Flash
    OpenAI
  • GPT-5.4
  • GPT-5 Mini
  • GPT-5 Nano
    Open Router
  • DeepSeek V3.2
  • Moonshot Kimi K2.5
  • xAI Grok 4 Fast
  • MiniMax M2.5
  • Z-AI GLM-5
  • … und viele, viele mehr
    Darüber hinaus können gehostete Kunden das auf der Einstellungsseite vorab konfigurierte CDCK Hosted Small LLM verwenden. Dies ist ein Open-Weights LLM, das von Discourse gehostet wird und bereit ist, KI-Funktionen zu unterstützen.

Konfigurationsfelder

:information_source: Sie sehen nur die Felder, die für Ihren ausgewählten LLM-Anbieter relevant sind. Bitte überprüfen Sie alle vorab ausgefüllten Felder mit dem entsprechenden Anbieter, wie z. B. Model name
Kernfelder:

  • Display name — Der Anzeigename, der in Dropdown-Menüs angezeigt wird
  • Model name — Die an die API gesendete Modellkennung (z. B. claude-sonnet-4-6, gpt-5.2)
  • Provider — Der Dienst, der das Modell hostet (z. B. Anthropic, OpenAI, Google, AWS Bedrock, Azure, Open Router usw.)
  • URL — Die API-Endpunkt-URL (nicht für AWS Bedrock angezeigt)
  • API Key — Konfiguriert über das AI Secrets-System
  • Tokenizer
  • Max prompt tokens — Steuert das Zuschneiden der Eingabeaufforderung, um überdimensionierte Anfragen zu vermeiden
  • Max output tokens
  • Input cost / Output cost — Kosten pro Million Tokens, verwendet für die Nutzungsnachverfolgung
  • Cached input cost / Cache write cost — für Anbieter, die Prompt-Caching unterstützen
  • Vision enabled — Aktiviert die Bilderkennung (modellabhängig)
  • Allowed attachment types — Dateitypen, die das Modell verarbeiten kann
    Anbieterspezifische Felder (werden dynamisch basierend auf dem ausgewählten Anbieter angezeigt):
  • AWS Bedrock: Access Key ID, Role ARN, Region, Reasoning/Thinking-Optionen, Prompt caching
  • Anthropic: Reasoning-Optionen, Prompt caching
  • OpenAI: Organization ID, Reasoning effort, Service tier
  • Google: Enable thinking, Thinking level
  • Open Router: Provider order, Provider quantizations
    Kontingente (nach dem ersten Speichern verfügbar):
  • Nutzungskontingente pro Gruppe können mit maximalen Tokens, maximaler Nutzung und Dauer konfiguriert werden

Technisches FAQ

Was ist ein Tokenizer?

  • Der Tokenizer übersetzt Zeichenfolgen in Tokens, was das ist, was ein Modell verwendet, um die Eingabe zu verstehen.
    Welche Zahl sollte ich für Max prompt tokens verwenden?
  • Eine gute Faustregel ist 50 % des Modell-Kontextfensters, was die Summe der gesendeten Tokens und der generierten Tokens ist. Wenn die Eingabeaufforderung zu groß wird, schlägt die Anfrage fehl. Diese Zahl wird verwendet, um die Eingabeaufforderung zuzuschneiden und dies zu verhindern.

Einschränkungen

  • Manchmal wird das gewünschte Modell möglicherweise nicht angezeigt. Obwohl Sie es manuell hinzufügen können, werden wir beliebte Modelle unterstützen, sobald sie herauskommen.
11 „Gefällt mir“

Es ist zu schwierig, ich weiß überhaupt nicht, wie ich es machen soll. Ich hoffe, spezifische Tutorials zu verschiedenen KIs, wie z. B. Google-Anmeldeeinstellungen, zu aktualisieren.

1 „Gefällt mir“

Wir haben die Benutzeroberfläche in der letzten Woche stark verbessert. Können Sie sie noch einmal ausprobieren?

3 „Gefällt mir“

Wann wird Gemini 2.0 unterstützt?

Wurde schon eine Weile unterstützt.

4 „Gefällt mir“

Ich habe anscheinend ein Problem, bei dem ich keine LLM auswählen kann, obwohl ich die gehosteten über das CDCK konfiguriert habe..

Ist das normal?

2 „Gefällt mir“

Hier gibt es viel zu entpacken. Welches LLM möchten Sie wofür auswählen?

Die CDCK LLMs sind nur für sehr spezifische Funktionen verfügbar. Um zu sehen, welche Sie benötigen, gehen Sie zu /admin/whats-new auf Ihrer Instanz und klicken Sie auf „Nur experimentelle Funktionen anzeigen“. Sie müssen diese aktivieren, um das CDCK LLM für bestimmte Funktionen freizuschalten.

Jedes LLM, das Sie außerhalb der CDCK LLMs definieren, ist für alle Funktionen verfügbar.

4 „Gefällt mir“

Gibt es auch ein Thema, das einen allgemeinen Überblick über das beste Kosten-/Qualitätsverhältnis gibt? Oder sogar, welche LLMs kostenlos für eine kleine Community und grundlegende Funktionalität verwendet werden können? Ich kann mich ins Detail vertiefen und herumspielen. Aber mir fehlt es ein wenig an Zeit.

Zum Beispiel interessiere ich mich nur für Spam-Erkennung und einen Profanitätsfilter. Das hatte ich kostenlos, aber diese Plugins sind veraltet oder werden es bald sein. Es wäre schön, wenn ich diese Funktionalität beibehalten könnte, ohne für ein LLM bezahlen zu müssen.

3 „Gefällt mir“

Wir haben dieses Thema, das könnte das sein, wonach Sie suchen.

2 „Gefällt mir“

Fertig! Es war tatsächlich ziemlich einfach. Aber vielleicht ist es für jemanden, der nicht technisch versiert ist, immer noch etwas schwierig einzurichten. Zum Beispiel wurde der Modellname in den Einstellungen automatisch gesetzt, war aber nicht der richtige. Glücklicherweise erkannte ich den Modellnamen in einem Curl-Beispiel für Claude auf der API-Seite und dann funktionierte es :tada:

Die geschätzten Kosten für die Spam-Kontrolle liegen vielleicht bei 30 Cent pro Monat (ich habe kein riesiges Forum). Das ist also überschaubar! Ich habe zur Sicherheit ein Limit von 5 Euro in der API-Konsole festgelegt.

1 „Gefällt mir“

Welchen hast du für Claude ausgewählt? Welcher falsche Name wurde angezeigt und in welchen hast du ihn korrigiert?

1 „Gefällt mir“

Ich verwende Claude 3.5, die Modell-ID ist standardmäßig claude-3-5-haiku, aber ich musste sie auf claude-3-5-haiku-20241022 ändern, sonst erhielt ich einen Fehler.

1 „Gefällt mir“

Gut zu wissen, ja manchmal gibt es vielleicht eine Diskrepanz. Die automatisch ausgefüllten Informationen sollten als Leitfaden dienen, was meistens funktioniert, aber in bestimmten Fällen wie Ihrem (angesichts all der verschiedenen Modelle und Anbieterkonfigurationen) nicht ausreicht.

Ich habe den Eröffnungspost dieses Leitfadens aktualisiert.

1 „Gefällt mir“

Dieses Modell ist nicht in 3.4.2 aufgeführt – sind diese Vorkonfigurationen nur auf 3.5 verfügbar und muss ich sie manuell hinzufügen?

Bearbeiten: Welche Option wähle ich für „Tokenizer“ bei der Verwendung von Grok 3-Modellen?

Pre-Configs sind lediglich Vorlagen, Sie können das gleiche Endergebnis erzielen, indem Sie die „Manuelle Konfiguration“ verwenden.

Ich habe festgestellt, dass der Gemini-Tokenizer dem Grok-Tokenizer ziemlich nahe kommt, also probieren Sie das aus.

2 „Gefällt mir“

Gibt es eine Möglichkeit, IBM WatsonX über die aktuelle Konfigurationsverwaltung zu nutzen, oder würde dies zusätzliche Entwicklungsarbeit durch die Discourse-Mitarbeiter erfordern?

Bietet IBM WatsonX zufällig eine OpenAI-kompatible API an?

Tolle Frage. Ein kurzer Blick in die Dokumentation hat mir nicht viel verraten, aber die Tatsache, dass dieses Repository existiert, deutet darauf hin, dass es nicht direkt kompatibel ist: GitHub - aseelert/watsonx-openai-api: Watsonx Openai compatible API

Welches dieser LLMs kann kostenlos für Anti-Spam verwendet werden?

Edit: Habe es gefunden, ich benutze Gemini Flash 2.5

Ich frage mich das auch immer. Das scheint die beste Antwort auf diese Frage zu sein.

Aber auch das steht im OP des Spam-Konfigurations-Threads. Ich denke, es ist einfach schwer, es in all den Informationen zu finden.

1 „Gefällt mir“