Ciao team e community di Discourse,
Innanzitutto, grazie per il lavoro continuo su Discourse AI. La serie di funzionalità è impressionante e in chiara e rapida evoluzione.
Vorrei proporre due miglioramenti all’UX/amministrazione che ridurrebbero significativamente il tempo di configurazione e gli errori di configurazione per gli amministratori, in particolare quelli che gestiscono più modelli/provider o più ambienti (staging/produzione).
1) Auto-scoperta dei modelli LLM per endpoint compatibili con OpenAI
Oggi, quando si aggiungono LLM, gli amministratori devono spesso incollare manualmente un ID modello per ogni voce. Per i provider e i gateway compatibili con OpenAI (ad esempio, endpoint compatibili con OpenAI self-hosted, livelli proxy/gateway), sarebbe estremamente utile se l’interfaccia utente potesse recuperare facoltativamente i modelli disponibili dopo aver inserito l’URL di base + la chiave API.
UX suggerita
- L’amministratore inserisce l’URL di base + la chiave API
- Clicca su “Recupera modelli”
- Discourse chiama
/v1/models(o l’equivalente del provider) - L’interfaccia utente presenta un menu a discesa/elenco ricercabile
- L’amministratore seleziona uno o più modelli da aggiungere/configurare
Note
- Se l’endpoint non supporta l’elenco, l’interfaccia utente può tornare in modo controllato all’inserimento manuale dell’ID modello.
- Un pulsante di aggiornamento e una cache di breve durata sarebbero utili, ma non necessari per un’implementazione iniziale.
2) Importazione/Esportazione per la configurazione di Discourse AI
La superficie di configurazione di Discourse AI è ampia (connessioni LLM, Bot AI, quote, interruttori delle funzionalità, ecc.). Sebbene la flessibilità sia ottima, può richiedere tempo e portare a errori configurare cliccando su molte schermate, specialmente quando si cerca di mantenere sincronizzati staging e produzione.
Vorrei richiedere una funzionalità di importazione/esportazione per la configurazione di “Discourse AI” nel suo complesso.
Comportamento suggerito
- Esportare tutte le impostazioni relative a Discourse AI in un unico file (preferibilmente JSON o YAML per il round-tripping)
- Importare il file per applicare le impostazioni a un altro ambiente o ripristinare una configurazione nota e funzionante
- Fornire un’anteprima/diff e una convalida (chiavi sconosciute, controlli di tipo) prima dell’applicazione
Gestione dei segreti
- Le chiavi API potrebbero essere escluse/mascherate per impostazione predefinita, con un’opzione esplicita per esportarle separatamente se necessario.
Opzionale (gradito)
- Un’esportazione compatibile con i fogli di calcolo (CSV/XLSX) per la revisione/modifica in blocco, mantenendo JSON/YAML come formato primario e senza perdita di dati.
Perché questo aiuterebbe
- Onboarding e riconfigurazione più rapidi per gli amministratori
- Meno errori dovuti all’inserimento manuale ripetitivo
- Migliore parità tra gli ambienti (staging/produzione)
- Gestione dei cambiamenti e audit più semplici tramite diff/controllo versione
Domande:
- Esiste un approccio di “configurazione in blocco” raccomandato esistente (API Admin / console Rails) che potrebbe essere formalizzato in un flusso di lavoro di importazione/esportazione?
- La scoperta dei modelli sarebbe accettabile almeno per gli endpoint compatibili con OpenAI dove è disponibile
/v1/models?
Grazie per aver preso in considerazione questa richiesta. Sono lieto di fornire dettagli aggiuntivi, esempi di flussi di lavoro o screenshot dei passaggi di configurazione attuali, se ciò fosse utile.
Cordiali saluti,