Bonjour l’équipe Discourse et la communauté,
Tout d’abord, merci pour le travail continu sur Discourse AI. L’ensemble des fonctionnalités est impressionnant et évolue clairement rapidement.
J’aimerais proposer deux améliorations d’UX/administration qui réduiraient considérablement le temps de configuration et les erreurs de configuration pour les administrateurs — en particulier ceux qui gèrent plusieurs modèles/fournisseurs ou plusieurs environnements (staging/production).
1) Découverte automatique des modèles LLM pour les points de terminaison compatibles OpenAI
Aujourd’hui, lors de l’ajout de LLM, les administrateurs doivent souvent coller manuellement un ID de modèle pour chaque entrée. Pour les fournisseurs et les passerelles compatibles OpenAI (par exemple, les points de terminaison auto-hébergés compatibles OpenAI, les couches de proxy/passerelle), il serait extrêmement utile que l’interface utilisateur puisse éventuellement récupérer les modèles disponibles après avoir saisi l’URL de base + la clé API.
UX suggérée
- L’administrateur saisit l’URL de base + la clé API
- Clique sur « Récupérer les modèles »
- Discourse appelle
/v1/models(ou l’équivalent du fournisseur) - L’interface utilisateur présente une liste déroulante/une liste consultable
- L’administrateur sélectionne un ou plusieurs modèles à ajouter/configurer
Notes
- Si le point de terminaison ne prend pas en charge la liste, l’interface utilisateur peut revenir gracieusement à la saisie manuelle de l’ID du modèle.
- Un bouton d’actualisation et une mise en cache de courte durée seraient utiles, mais pas requis pour une implémentation initiale.
2) Importation/Exportation pour la configuration de Discourse AI
La surface de configuration de Discourse AI est vaste (connexions LLM, Bot IA, quotas, bascules de fonctionnalités, etc.). Bien que la flexibilité soit excellente, il peut être long et source d’erreurs de configurer en cliquant sur de nombreux écrans — en particulier lors de la tentative de maintien de la synchronisation entre staging et production.
J’aimerais demander une capacité d’importation/exportation pour la « configuration de Discourse AI » dans son ensemble.
Comportement suggéré
- Exporter tous les paramètres liés à Discourse AI dans un seul fichier (de préférence JSON ou YAML pour l’aller-retour)
- Importer le fichier pour appliquer les paramètres à un autre environnement ou restaurer une configuration connue et stable
- Fournir un aperçu/diff et une validation (clés inconnues, vérifications de type) avant l’application
Gestion des secrets
- Les clés API pourraient être exclues/masquées par défaut, avec une option explicite pour les exporter séparément si nécessaire.
Optionnel (agréable à avoir)
- Une exportation conviviale pour les tableurs (CSV/XLSX) pour une révision/modification en masse, tout en conservant JSON/YAML comme format principal et sans perte.
Pourquoi cela aiderait
- Intégration et reconfiguration plus rapides pour les administrateurs
- Moins d’erreurs dues à la saisie manuelle répétitive
- Meilleure parité entre les environnements (staging/prod)
- Audit et gestion des changements plus faciles via les diffs/le contrôle de version
Questions :
- Existe-t-il une approche de « configuration en masse » recommandée existante (API d’administration / console Rails) qui pourrait être formalisée en un flux de travail d’importation/exportation ?
- La découverte de modèles serait-elle acceptable au moins pour les points de terminaison compatibles OpenAI où
/v1/modelsest disponible ?
Merci d’avoir pris en compte cette demande. Je suis heureux de fournir des détails supplémentaires, des exemples de flux de travail ou des captures d’écran des étapes de configuration actuelles si cela peut être utile.
Cordialement,