Richiesta di funzionalità: migliorare la configurazione AI LLM di Discourse (scoperta modelli) e aggiungere importazione/esportazione configurazione AI

Ciao team e community di Discourse,

Innanzitutto, grazie per il lavoro continuo su Discourse AI. La serie di funzionalità è impressionante e in chiara e rapida evoluzione.

Vorrei proporre due miglioramenti all’UX/amministrazione che ridurrebbero significativamente il tempo di configurazione e gli errori di configurazione per gli amministratori, in particolare quelli che gestiscono più modelli/provider o più ambienti (staging/produzione).

1) Auto-scoperta dei modelli LLM per endpoint compatibili con OpenAI

Oggi, quando si aggiungono LLM, gli amministratori devono spesso incollare manualmente un ID modello per ogni voce. Per i provider e i gateway compatibili con OpenAI (ad esempio, endpoint compatibili con OpenAI self-hosted, livelli proxy/gateway), sarebbe estremamente utile se l’interfaccia utente potesse recuperare facoltativamente i modelli disponibili dopo aver inserito l’URL di base + la chiave API.

UX suggerita

  • L’amministratore inserisce l’URL di base + la chiave API
  • Clicca su “Recupera modelli”
  • Discourse chiama /v1/models (o l’equivalente del provider)
  • L’interfaccia utente presenta un menu a discesa/elenco ricercabile
  • L’amministratore seleziona uno o più modelli da aggiungere/configurare

Note

  • Se l’endpoint non supporta l’elenco, l’interfaccia utente può tornare in modo controllato all’inserimento manuale dell’ID modello.
  • Un pulsante di aggiornamento e una cache di breve durata sarebbero utili, ma non necessari per un’implementazione iniziale.

2) Importazione/Esportazione per la configurazione di Discourse AI

La superficie di configurazione di Discourse AI è ampia (connessioni LLM, Bot AI, quote, interruttori delle funzionalità, ecc.). Sebbene la flessibilità sia ottima, può richiedere tempo e portare a errori configurare cliccando su molte schermate, specialmente quando si cerca di mantenere sincronizzati staging e produzione.

Vorrei richiedere una funzionalità di importazione/esportazione per la configurazione di “Discourse AI” nel suo complesso.

Comportamento suggerito

  • Esportare tutte le impostazioni relative a Discourse AI in un unico file (preferibilmente JSON o YAML per il round-tripping)
  • Importare il file per applicare le impostazioni a un altro ambiente o ripristinare una configurazione nota e funzionante
  • Fornire un’anteprima/diff e una convalida (chiavi sconosciute, controlli di tipo) prima dell’applicazione

Gestione dei segreti

  • Le chiavi API potrebbero essere escluse/mascherate per impostazione predefinita, con un’opzione esplicita per esportarle separatamente se necessario.

Opzionale (gradito)

  • Un’esportazione compatibile con i fogli di calcolo (CSV/XLSX) per la revisione/modifica in blocco, mantenendo JSON/YAML come formato primario e senza perdita di dati.

Perché questo aiuterebbe

  • Onboarding e riconfigurazione più rapidi per gli amministratori
  • Meno errori dovuti all’inserimento manuale ripetitivo
  • Migliore parità tra gli ambienti (staging/produzione)
  • Gestione dei cambiamenti e audit più semplici tramite diff/controllo versione

Domande:

  • Esiste un approccio di “configurazione in blocco” raccomandato esistente (API Admin / console Rails) che potrebbe essere formalizzato in un flusso di lavoro di importazione/esportazione?
  • La scoperta dei modelli sarebbe accettabile almeno per gli endpoint compatibili con OpenAI dove è disponibile /v1/models?

Grazie per aver preso in considerazione questa richiesta. Sono lieto di fornire dettagli aggiuntivi, esempi di flussi di lavoro o screenshot dei passaggi di configurazione attuali, se ciò fosse utile.

Cordiali saluti,

1 Mi Piace