Hallo Discourse-Team und Community,
Zunächst vielen Dank für die fortlaufende Arbeit an Discourse AI. Der Funktionsumfang ist beeindruckend und entwickelt sich offensichtlich schnell weiter.
Ich möchte zwei UX/Admin-Verbesserungen vorschlagen, die die Einrichtungszeit und Konfigurationsfehler für Administratoren erheblich reduzieren würden – insbesondere für diejenigen, die mehrere Modelle/Anbieter oder mehrere Umgebungen (Staging/Produktion) verwalten.
1) LLM-Modell-Autodiskoverung für OpenAI-kompatible Endpunkte
Heute müssen Administratoren beim Hinzufügen von LLMs oft manuell eine Modell-ID für jeden Eintrag einfügen. Für OpenAI-kompatible Anbieter und Gateways (z. B. selbst gehostete OpenAI-kompatible Endpunkte, Proxy-/Gateway-Ebenen) wäre es äußerst hilfreich, wenn die Benutzeroberfläche optional die verfügbaren Modelle abrufen könnte, nachdem die Basis-URL und der API-Schlüssel eingegeben wurden.
Vorgeschlagene UX
- Admin gibt Basis-URL + API-Schlüssel ein
- Klickt auf „Modelle abrufen“
- Discourse ruft
/v1/models(oder das Anbieter-Äquivalent) auf - Die Benutzeroberfläche zeigt eine durchsuchbare Dropdown-Liste/Liste an
- Admin wählt ein oder mehrere Modelle zum Hinzufügen/Konfigurieren aus
Anmerkungen
- Wenn der Endpunkt das Auflisten nicht unterstützt, kann die Benutzeroberfläche elegant auf die manuelle Eingabe der Modell-ID zurückfallen.
- Eine Aktualisierungsschaltfläche und eine kurzlebige Zwischenspeicherung wären nützlich, sind aber für eine erste Implementierung nicht zwingend erforderlich.
2) Import/Export für die Discourse AI-Konfiguration
Die Konfigurationsoberfläche von Discourse AI ist umfangreich (LLM-Verbindungen, KI-Bot, Kontingente, Funktionsumschalter usw.). Obwohl die Flexibilität großartig ist, kann die Einrichtung durch das Klicken durch viele Bildschirme zeitaufwendig und fehleranfällig sein – insbesondere beim Versuch, Staging und Produktion synchron zu halten.
Ich möchte eine Import-/Exportfunktion für die „Discourse AI-Konfiguration“ als Ganzes beantragen.
Vorgeschlagenes Verhalten
- Alle für Discourse AI relevanten Einstellungen werden in eine einzige Datei exportiert (vorzugsweise JSON oder YAML für den Roundtrip)
- Die Datei wird importiert, um Einstellungen in einer anderen Umgebung anzuwenden oder eine als gut bekannte Konfiguration wiederherzustellen
- Vorschau/Diff und Validierung (unbekannte Schlüssel, Typenprüfungen) vor der Anwendung bereitstellen
Geheimnisbehandlung
- API-Schlüssel könnten standardmäßig ausgeschlossen/maskiert werden, mit einer expliziten Opt-in-Möglichkeit, sie bei Bedarf separat zu exportieren.
Optional (wünschenswert)
- Ein für Tabellenkalkulationen geeigneter Export (CSV/XLSX) zur Massenprüfung/Bearbeitung, wobei JSON/YAML das primäre, verlustfreie Format bleibt.
Warum dies helfen würde
- Schnellere Einarbeitung und Neukonfiguration für Administratoren
- Weniger Fehler durch wiederholte manuelle Eingabe
- Bessere Parität zwischen Umgebungen (Staging/Prod)
- Einfachere Prüfung und Änderungsverwaltung durch Diffs/Versionskontrolle
Fragen:
- Gibt es bereits einen empfohlenen Ansatz für die „Massenkonfiguration“ (Admin-API / Rails-Konsole), der in einen Import-/Export-Workflow formalisiert werden könnte?
- Wäre die Modellerkennung zumindest für OpenAI-kompatible Endpunkte akzeptabel, bei denen
/v1/modelsverfügbar ist?
Vielen Dank für die Berücksichtigung dieser Anfrage. Ich stehe gerne für zusätzliche Details, Beispiel-Workflows oder Screenshots der aktuellen Einrichtungsschritte zur Verfügung, falls dies hilfreich ist.
Mit freundlichen Grüßen,