Feature-Anfrage: Discourse AI LLM-Setup verbessern (Modellerkennung) und AI-Konfiguration importieren/exportieren hinzufügen

Hallo Discourse-Team und Community,

Zunächst vielen Dank für die fortlaufende Arbeit an Discourse AI. Der Funktionsumfang ist beeindruckend und entwickelt sich offensichtlich schnell weiter.

Ich möchte zwei UX/Admin-Verbesserungen vorschlagen, die die Einrichtungszeit und Konfigurationsfehler für Administratoren erheblich reduzieren würden – insbesondere für diejenigen, die mehrere Modelle/Anbieter oder mehrere Umgebungen (Staging/Produktion) verwalten.

1) LLM-Modell-Autodiskoverung für OpenAI-kompatible Endpunkte

Heute müssen Administratoren beim Hinzufügen von LLMs oft manuell eine Modell-ID für jeden Eintrag einfügen. Für OpenAI-kompatible Anbieter und Gateways (z. B. selbst gehostete OpenAI-kompatible Endpunkte, Proxy-/Gateway-Ebenen) wäre es äußerst hilfreich, wenn die Benutzeroberfläche optional die verfügbaren Modelle abrufen könnte, nachdem die Basis-URL und der API-Schlüssel eingegeben wurden.

Vorgeschlagene UX

  • Admin gibt Basis-URL + API-Schlüssel ein
  • Klickt auf „Modelle abrufen“
  • Discourse ruft /v1/models (oder das Anbieter-Äquivalent) auf
  • Die Benutzeroberfläche zeigt eine durchsuchbare Dropdown-Liste/Liste an
  • Admin wählt ein oder mehrere Modelle zum Hinzufügen/Konfigurieren aus

Anmerkungen

  • Wenn der Endpunkt das Auflisten nicht unterstützt, kann die Benutzeroberfläche elegant auf die manuelle Eingabe der Modell-ID zurückfallen.
  • Eine Aktualisierungsschaltfläche und eine kurzlebige Zwischenspeicherung wären nützlich, sind aber für eine erste Implementierung nicht zwingend erforderlich.

2) Import/Export für die Discourse AI-Konfiguration

Die Konfigurationsoberfläche von Discourse AI ist umfangreich (LLM-Verbindungen, KI-Bot, Kontingente, Funktionsumschalter usw.). Obwohl die Flexibilität großartig ist, kann die Einrichtung durch das Klicken durch viele Bildschirme zeitaufwendig und fehleranfällig sein – insbesondere beim Versuch, Staging und Produktion synchron zu halten.

Ich möchte eine Import-/Exportfunktion für die „Discourse AI-Konfiguration“ als Ganzes beantragen.

Vorgeschlagenes Verhalten

  • Alle für Discourse AI relevanten Einstellungen werden in eine einzige Datei exportiert (vorzugsweise JSON oder YAML für den Roundtrip)
  • Die Datei wird importiert, um Einstellungen in einer anderen Umgebung anzuwenden oder eine als gut bekannte Konfiguration wiederherzustellen
  • Vorschau/Diff und Validierung (unbekannte Schlüssel, Typenprüfungen) vor der Anwendung bereitstellen

Geheimnisbehandlung

  • API-Schlüssel könnten standardmäßig ausgeschlossen/maskiert werden, mit einer expliziten Opt-in-Möglichkeit, sie bei Bedarf separat zu exportieren.

Optional (wünschenswert)

  • Ein für Tabellenkalkulationen geeigneter Export (CSV/XLSX) zur Massenprüfung/Bearbeitung, wobei JSON/YAML das primäre, verlustfreie Format bleibt.

Warum dies helfen würde

  • Schnellere Einarbeitung und Neukonfiguration für Administratoren
  • Weniger Fehler durch wiederholte manuelle Eingabe
  • Bessere Parität zwischen Umgebungen (Staging/Prod)
  • Einfachere Prüfung und Änderungsverwaltung durch Diffs/Versionskontrolle

Fragen:

  • Gibt es bereits einen empfohlenen Ansatz für die „Massenkonfiguration“ (Admin-API / Rails-Konsole), der in einen Import-/Export-Workflow formalisiert werden könnte?
  • Wäre die Modellerkennung zumindest für OpenAI-kompatible Endpunkte akzeptabel, bei denen /v1/models verfügbar ist?

Vielen Dank für die Berücksichtigung dieser Anfrage. Ich stehe gerne für zusätzliche Details, Beispiel-Workflows oder Screenshots der aktuellen Einrichtungsschritte zur Verfügung, falls dies hilfreich ist.

Mit freundlichen Grüßen,

1 „Gefällt mir“