Solicitação de recurso: melhorar a configuração do Discourse AI LLM (descoberta de modelo) e adicionar importação/exportação de configuração de IA

Olá equipe e comunidade do Discourse,

Primeiramente, obrigado pelo trabalho contínuo no Discourse AI. O conjunto de recursos é impressionante e está claramente evoluindo rapidamente.

Gostaria de propor duas melhorias de UX/administração que reduziriam significativamente o tempo de configuração e os erros de configuração para administradores — especialmente aqueles que gerenciam vários modelos/provedores ou vários ambientes (staging/produção).

1) Auto-descoberta de modelos LLM para endpoints compatíveis com OpenAI

Hoje, ao adicionar LLMs, os administradores geralmente precisam colar manualmente um ID de modelo para cada entrada. Para provedores e gateways compatíveis com OpenAI (por exemplo, endpoints compatíveis com OpenAI auto-hospedados, camadas de proxy/gateway), seria extremamente útil se a interface do usuário pudesse buscar opcionalmente os modelos disponíveis após a inserção da URL Base + chave de API.

UX Sugerida

  • O administrador insere a URL Base + chave de API
  • Clica em “Buscar modelos”
  • O Discourse chama /v1/models (ou equivalente do provedor)
  • A interface do usuário apresenta um menu suspenso/lista pesquisável
  • O administrador seleciona um ou mais modelos para adicionar/configurar

Notas

  • Se o endpoint não suportar a listagem, a interface do usuário pode reverter graciosamente para a entrada manual do ID do modelo.
  • Um botão de atualização e um cache de curta duração seriam úteis, mas não necessários para uma implementação inicial.

2) Importar/Exportar para a configuração do Discourse AI

A superfície de configuração do Discourse AI é grande (conexões LLM, Bot de IA, cotas, alternância de recursos, etc.). Embora a flexibilidade seja ótima, pode ser demorado e propenso a erros configurar clicando em várias telas — especialmente ao tentar manter o staging e a produção sincronizados.

Gostaria de solicitar uma capacidade de importação/exportação para a configuração “Discourse AI” como um todo.

Comportamento Sugerido

  • Exportar todas as configurações relacionadas ao Discourse AI para um único arquivo (preferencialmente JSON ou YAML para ida e volta)
  • Importar o arquivo para aplicar as configurações a outro ambiente ou restaurar uma configuração conhecida e funcional
  • Fornecer uma prévia/diff e validação (chaves desconhecidas, verificações de tipo) antes de aplicar

Tratamento de Segredos

  • As chaves de API poderiam ser excluídas/mascaradas por padrão, com uma opção explícita para exportá-las separadamente, se necessário.

Opcional (bom de ter)

  • Uma exportação amigável para planilhas (CSV/XLSX) para revisão/edição em lote, mantendo JSON/YAML como o formato principal e sem perdas.

Por que isso ajudaria

  • Integração e reconfiguração mais rápidas para administradores
  • Menos erros de entrada manual repetitiva
  • Melhor paridade entre ambientes (staging/produção)
  • Auditoria e gerenciamento de mudanças mais fáceis via diffs/controle de versão

Perguntas:

  • Existe uma abordagem de “configuração em lote” recomendada existente (API de Admin / console Rails) que poderia ser formalizada em um fluxo de trabalho de importação/exportação?
  • A descoberta de modelos seria aceitável pelo menos para endpoints compatíveis com OpenAI onde /v1/models está disponível?

Obrigado por considerar esta solicitação. Estou à disposição para fornecer detalhes adicionais, exemplos de fluxos de trabalho ou capturas de tela das etapas de configuração atuais, se isso for útil.

Atenciosamente,

1 curtida