Discourse AI Plugin: fehlende Modellerkennung & sinnvolle Standardwerte (Pläne oder Community-Plugins?)

Hallo zusammen :waving_hand:,

Zunächst einmal vielen Dank an das Discourse-Team für die Entwicklung und Pflege des offiziellen KI-Plugins. Es ist offensichtlich, dass viel Sorgfalt darauf verwendet wurde, es stabil und flexibel für verschiedene Bereitstellungsszenarien zu gestalten.

Dennoch bin ich nach der Integration mehrerer KI-Anbieter (einschließlich OpenAI-kompatibler Gateways und Gemini-Endpunkte von Drittanbietern) auf einige UX-Lücken gestoßen, die mit der Reifung der KI-Tools immer schmerzhafter werden. Ich wollte fragen, ob Pläne bestehen, diese zu beheben – oder ob Interesse an einem Community-Plugin besteht, das dies tut.


1. Keine Modellerkennung / Modellliste vom Anbieter

Im Moment muss der Administrator beim Hinzufügen eines Modells manuell:

  • Die Modell-ID eingeben
  • Im Voraus wissen, welche Modelle vom Anbieter unterstützt werden
  • Sicherstellen, dass die ID exakt richtig geschrieben ist

In den meisten modernen KI-Tools und Gateways (OpenAI Playground, OpenRouter, OneAPI, LM Studio usw.) ist es mittlerweile Standard:

  • Eine Liste der verfügbaren Modelle vom Anbieter abzurufen (z. B. /v1/models)
  • Dem Benutzer die Auswahl aus einem Dropdown-Menü zu ermöglichen
  • Optional grundlegende Fähigkeiten anzuzeigen (Kontextlänge, Unterstützung für Vision usw.)

Ich verstehe, dass Discourse AI viele nicht standardmäßige oder weitergeleitete Backends unterstützt und dass nicht alle Anbieter die Modellauflistung konsistent implementieren. Dennoch würde selbst eine optionale Aktion „Modelle vom Anbieter abrufen“ (Best-Effort, OpenAI-kompatibel) die Benutzerfreundlichkeit für viele Setups dramatisch verbessern.


2. Kontextfenster sollte keine manuelle Eingabe erfordern (oder einen Standardwert haben)

Derzeit hat das Feld Kontextfenster keinen Standardwert und muss manuell eingegeben werden.

Aus Benutzersicht fühlt es sich so an, als sollte das Plugin entweder:

  • Auf das bekannte maximale Kontextfenster des Modells voreingestellt werden, oder
  • Auf einen sicheren, angemessenen Standardwert zurückfallen, falls unbekannt, oder
  • Einen leeren Wert als „Anbieter-/Modellstandard verwenden“ behandeln

Administratoren dazu zu zwingen, Kontextgrößen manuell zu recherchieren und einzugeben, ist fehleranfällig und unnötig, insbesondere wenn der Modellname diese Information in den meisten Fällen bereits impliziert.


3. Frage: Pläne, Muster oder Community-Plugins?

Meine Fragen an die Community und die Maintainer sind also:

  • Gibt es Pläne, die Modellerkennung und Standardwerte im offiziellen KI-Plugin zu verbessern?
  • Gibt es empfohlene Muster, um dies heute ergonomischer zu handhaben?
  • Kennt jemand (oder arbeitet jemand an) einem Community-Plugin oder einer Erweiterung, die diese Lücken schließt?

Wenn die Antwort „Nein, und es wird wahrscheinlich nicht in den Core aufgenommen“ lautet, würde ich ernsthaft in Erwägung ziehen, mit einem kleinen Begleit-Plugin zu experimentieren, das sich ausschließlich auf Folgendes konzentriert:

  • Modellerkennung
  • Fähigkeitsmetadaten
  • Sinnvolle Standardwerte

Bevor ich diesen Weg einschlage, wollte ich prüfen, ob dies etwas ist, woran andere interessiert sind, oder ob es Kontext gibt, den ich möglicherweise übersehe.

Vielen Dank fürs Lesen, und ich würde mich freuen, Ihre Gedanken zu hören.

1 „Gefällt mir“

Ich vermute, jemand hat dieses Plugin entwickelt. Bitte empfehlen Sie es mir sofort, vielen Dank.

Kontextfenstergröße des Modells

Maximale Token-Größe für den Kontext des Modells. Wenn dieser Wert 0 ist, wird er automatisch aus den Modelldaten (falls vorhanden) übernommen oder kann manuell geändert werden.

Ist Ihr erster Punkt hier derselbe wie in diesem Thema?

1 „Gefällt mir“