Welches LLM für Discourse AI verwenden?

Es ist wichtig, die Bedürfnisse von Ihnen als Community-Administrator und Ihren Mitgliedern zu verstehen, wenn Sie ein Large Language Model (LLM) auswählen, um die Discourse AI-Funktionen zu unterstützen.

Mehrere Faktoren können Ihre Entscheidungen beeinflussen:

  1. Leistung für den Anwendungsfall: Suchen Sie nach dem leistungsstärksten Modell? Die Leistung kann je nach Aufgabe (z. B. Zusammenfassung, Suche, komplexe Schlussfolgerungen, Spam-Erkennung) variieren. Die Bewertung basiert auf der Fähigkeit des Modells, korrekte, relevante und kohärente Antworten zu generieren.
  2. Kontextlänge: Das Kontextfenster ist die Menge an Text, die ein Modell gleichzeitig „sehen“ und berücksichtigen kann. Größere Kontextfenster ermöglichen die Verarbeitung von mehr Informationen (z. B. längere Themen für die Zusammenfassung) und die Aufrechterhaltung der Kohärenz über längere Interaktionen hinweg.
  3. Kompatibilität: Wird das Modell sofort mit dem Discourse AI-Plugin unterstützt? Sind spezifische API-Endpunkte oder Konfigurationen erforderlich? Überprüfen Sie die Plugin-Dokumentation auf unterstützte Anbieter und Modelle.
  4. Sprachunterstützung: Obwohl viele Top-LLMs mehrere Sprachen gut beherrschen, kann die Leistung variieren. Wenn Ihre Community hauptsächlich eine andere Sprache als Englisch verwendet, wird empfohlen, bestimmte Modelle für diese Sprache zu testen.
  5. Multimodale Fähigkeiten: Einige Funktionen, wie die Bildunterschriftenerstellung in AI Helper, erfordern Modelle, die Bilder verarbeiten können (Vision). Stellen Sie sicher, dass das ausgewählte Modell die erforderlichen Modalitäten unterstützt.
  6. Geschwindigkeit & Modi: Größere, leistungsfähigere Modelle können langsamer sein. Bei Echtzeitfunktionen wie AI Helper oder Suche können schnellere Modelle ein besseres Benutzererlebnis bieten. Einige Modelle bieten verschiedene Modi (z. B. erweiterte Denk- oder Schlussfolgerungsaufwandsstufen), die einen Kompromiss zwischen Geschwindigkeit und tieferer Schlussfolgerung ermöglichen.
  7. Kosten: Das Budget ist oft ein Schlüsselfaktor. Die Modellkosten variieren erheblich je nach Anbieter und Modellstufe. Die Kosten werden typischerweise pro Token (Eingabe und Ausgabe) gemessen. Schnellere/kleinere Modelle sind im Allgemeinen billiger als große/leistungsstarke Modelle. Open-Source-Modelle können je nach Hosting oft kostengünstiger betrieben werden.
  8. Datenschutzbedenken: Verschiedene LLM-Anbieter haben unterschiedliche Richtlinien zur Datennutzung und zum Datenschutz. Überprüfen Sie die Nutzungsbedingungen, insbesondere im Hinblick darauf, ob Ihre Daten zum Trainieren verwendet werden könnten. Einige Anbieter bieten Optionen ohne Datenspeicherung an.
  9. Open vs. Closed Source: Open-Source-Modelle bieten Transparenz und die Möglichkeit des Self-Hostings oder Fine-Tunings, erfordern jedoch möglicherweise mehr technischen Aufwand. Closed-Source-Modelle sind über APIs typischerweise einfacher zu verwenden, bieten jedoch weniger Kontrolle und Transparenz.

Auswahl eines LLM für Discourse AI-Funktionen
Die LLM-Landschaft entwickelt sich schnell weiter. Die folgende Tabelle bietet einen allgemeinen Überblick über die derzeit beliebten und leistungsfähigen Modelle, die für verschiedene Discourse AI-Funktionen geeignet sind, kategorisiert nach ihren typischen Stärken und Kostenprofilen. Modelle innerhalb jeder Kategorie sind alphabetisch aufgeführt.

:warning: Dies sind allgemeine Richtlinien. Überprüfen Sie immer die offizielle Dokumentation des Discourse AI-Plugins für die aktuellste Liste der unterstützten Modelle und erforderlichen Konfigurationen. Leistung und Kosten ändern sich häufig; konsultieren Sie die Dokumentation des LLM-Anbieters für die neuesten Details. Die Verfügbarkeit und Leistung von Open-Source-Modellen kann vom jeweiligen Anbieter oder der Hosting-Konfiguration abhängen.

Eine alternative Option für gehostete Kunden ist die Verwendung der vorkonfigurierten LLMs, die über die Admin-Oberfläche des Discourse AI-Plugins verfügbar sind. Diese können unter Admin → Plugins → AI → LLMs eingerichtet werden, was Ein-Klick-Voreinstellungen für beliebte Modelle von Anthropic, Google, OpenAI und OpenRouter bietet.

Kategorie Modell Anbieter Hauptstärken / Anwendungsfälle Hinweise
Höchste Leistung/Schlussfolgerung Claude Opus 4.6 Anthropic Maximale Schlussfolgerungsfähigkeit, komplexe Aufgaben, Analyse, Generierung Teuerstes Anthropic-Modell, 200K Kontext, exzellentes Vision
Gemini 3 Pro Google Hohe Leistung, sehr großes Kontextfenster, stark multimodal 1M Token Kontext, ausgezeichneter Allrounder
GPT-5.2 OpenAI State-of-the-Art Schlussfolgerung, komplexe Aufgaben, Generierung, Vision 400K Kontext, starker Allrounder von OpenAI
xAI Grok 4 Fast xAI (über OpenRouter) Starke Schlussfolgerung, wettbewerbsfähige Leistung Über OpenRouter verfügbar, Vision-fähig
Ausgewogen (Vielseitig) Claude Sonnet 4.6 Anthropic Hohe Leistung, gute Schlussfolgerung, großer Kontext, Vision, schnell Ausgezeichnete Standardwahl, balanciert Geschwindigkeit und Fähigkeit, 200K Kontext
DeepSeek V3.2 DeepSeek (über OpenRouter) Starke allgemeine Leistung, gutes Preis-Leistungs-Verhältnis Open-Source-Option, kosteneffektiv für breite Nutzung, 163K Kontext
Moonshot Kimi K2.5 Moonshot (über OpenRouter) Starke Leistung, sehr großer Kontext, Vision 262K Kontextfenster, gutes Preis-Leistungs-Verhältnis
Kostengünstig/Geschwindigkeit Claude Haiku 4.5 Anthropic Schnell und kostengünstig, geeignet für einfachere Aufgaben, Vision-fähig Am besten für Aufgaben mit hohem Volumen und geringer Latenz wie Suche, einfache Zusammenfassungen
Gemini 3 Flash Google Sehr schnell und kosteneffektiv, gute allgemeine Fähigkeiten, Vision 1M Kontext, gut für Zusammenfassung, Suche, Helferaufgaben
GPT-5 Mini OpenAI Schnell, erschwinglich, gut für viele Aufgaben 400K Kontext, gute Balance zwischen Kosten/Leistung für einfachere Funktionen
GPT-5 Nano OpenAI Extrem schnell und die günstigste OpenAI-Option Am besten für höchste Volumina, niedrigste Kosten
Arcee Trinity Large (Kostenlos) Arcee (über OpenRouter) Kostenlose Stufe Option, 128K Kontext Gut für Tests oder sehr budgetbewusste Bereitstellungen
Vision-fähig Claude Opus 4.6 / Sonnet 4.6 / Haiku 4.5 Anthropic Alle aktuellen Anthropic-Modelle unterstützen Vision Nützlich für Bildunterschriften in AI Helper
Gemini 3 Pro / 3 Flash Google Starke Vision-Fähigkeiten Nützlich für Bildunterschriften in AI Helper
GPT-5.2 OpenAI Integrierte Text- und Visionsverarbeitung Nützlich für Bildunterschriften in AI Helper
Moonshot Kimi K2.5 Moonshot (über OpenRouter) Vision-fähig Über OpenRouter verfügbar
xAI Grok 4 Fast xAI (über OpenRouter) Vision-fähig Über OpenRouter verfügbar

Allgemeine Empfehlungszuordnung (vereinfacht):

  • AI Bot (Komplexe F&A, Agents): Top Performance/Reasoning-Modelle (Claude Opus 4.6, Gemini 3 Pro, GPT-5.2) oder starke Balanced-Modelle (Claude Sonnet 4.6, DeepSeek V3.2).
  • AI Search / Discover: Cost-Effective/Speed-Modelle (Haiku 4.5, Gemini 3 Flash, GPT-5 Mini/Nano) oder Balanced-Modelle für ein etwas besseres Verständnis (Sonnet 4.6, DeepSeek V3.2).
  • AI Helper (Titelvorschläge, Korrekturlesen, Übersetzung): Cost-Effective/Speed-Modelle oder Balanced-Modelle. Geschwindigkeit ist oft vorzuziehen. Claude Sonnet 4.6 oder GPT-5 Mini sind gute Kandidaten.
  • Zusammenfassen: Balanced-Modelle (Claude Sonnet 4.6, GPT-5.2, DeepSeek V3.2) oder Cost-Effective-Modelle (Gemini 3 Flash, GPT-5 Mini). Längere Kontextfenster (Gemini 3 Pro/Flash mit 1M Tokens) sind bei langen Themen von Vorteil.
  • Spam-Erkennung: Cost-Effective/Speed-Modelle sind normalerweise ausreichend und kosteneffizient (Haiku 4.5, Gemini 3 Flash, GPT-5 Mini/Nano).
  • Übersetzung: Cost-Effective/Speed-Modelle eignen sich gut für die Lokalisierungserkennung und Übersetzungsaufgaben (Haiku 4.5, Gemini 3 Flash, GPT-5 Mini).
  • Automatisierung (Triage, Berichte): Hängt von der Komplexität ab. Einfache Triage-Regeln funktionieren gut mit Cost-Effective-Modellen. Komplexe agentenbasierte Triage profitiert von Balanced- oder Top Performance-Modellen.

Denken Sie daran, die ausgewählten LLM(s) in Ihrem Discourse Admin unter Plugins → AI → Features für jede Funktion zu konfigurieren und die LLM-Verbindungen unter Plugins → AI → LLMs einzurichten.

17 „Gefällt mir“