Olá equipe e comunidade do Discourse,
Primeiramente, obrigado pelo trabalho contínuo no Discourse AI. O conjunto de recursos é impressionante e está claramente evoluindo rapidamente.
Gostaria de propor duas melhorias de UX/administração que reduziriam significativamente o tempo de configuração e os erros de configuração para administradores — especialmente aqueles que gerenciam vários modelos/provedores ou vários ambientes (staging/produção).
1) Auto-descoberta de modelos LLM para endpoints compatíveis com OpenAI
Hoje, ao adicionar LLMs, os administradores geralmente precisam colar manualmente um ID de modelo para cada entrada. Para provedores e gateways compatíveis com OpenAI (por exemplo, endpoints compatíveis com OpenAI auto-hospedados, camadas de proxy/gateway), seria extremamente útil se a interface do usuário pudesse buscar opcionalmente os modelos disponíveis após a inserção da URL Base + chave de API.
UX Sugerida
- O administrador insere a URL Base + chave de API
- Clica em “Buscar modelos”
- O Discourse chama
/v1/models(ou equivalente do provedor) - A interface do usuário apresenta um menu suspenso/lista pesquisável
- O administrador seleciona um ou mais modelos para adicionar/configurar
Notas
- Se o endpoint não suportar a listagem, a interface do usuário pode reverter graciosamente para a entrada manual do ID do modelo.
- Um botão de atualização e um cache de curta duração seriam úteis, mas não necessários para uma implementação inicial.
2) Importar/Exportar para a configuração do Discourse AI
A superfície de configuração do Discourse AI é grande (conexões LLM, Bot de IA, cotas, alternância de recursos, etc.). Embora a flexibilidade seja ótima, pode ser demorado e propenso a erros configurar clicando em várias telas — especialmente ao tentar manter o staging e a produção sincronizados.
Gostaria de solicitar uma capacidade de importação/exportação para a configuração “Discourse AI” como um todo.
Comportamento Sugerido
- Exportar todas as configurações relacionadas ao Discourse AI para um único arquivo (preferencialmente JSON ou YAML para ida e volta)
- Importar o arquivo para aplicar as configurações a outro ambiente ou restaurar uma configuração conhecida e funcional
- Fornecer uma prévia/diff e validação (chaves desconhecidas, verificações de tipo) antes de aplicar
Tratamento de Segredos
- As chaves de API poderiam ser excluídas/mascaradas por padrão, com uma opção explícita para exportá-las separadamente, se necessário.
Opcional (bom de ter)
- Uma exportação amigável para planilhas (CSV/XLSX) para revisão/edição em lote, mantendo JSON/YAML como o formato principal e sem perdas.
Por que isso ajudaria
- Integração e reconfiguração mais rápidas para administradores
- Menos erros de entrada manual repetitiva
- Melhor paridade entre ambientes (staging/produção)
- Auditoria e gerenciamento de mudanças mais fáceis via diffs/controle de versão
Perguntas:
- Existe uma abordagem de “configuração em lote” recomendada existente (API de Admin / console Rails) que poderia ser formalizada em um fluxo de trabalho de importação/exportação?
- A descoberta de modelos seria aceitável pelo menos para endpoints compatíveis com OpenAI onde
/v1/modelsestá disponível?
Obrigado por considerar esta solicitação. Estou à disposição para fornecer detalhes adicionais, exemplos de fluxos de trabalho ou capturas de tela das etapas de configuração atuais, se isso for útil.
Atenciosamente,