Solicitud de característica: mejorar la configuración de Discourse AI LLM (descubrimiento de modelos) y añadir importación/exportación de configuración de IA

Hola equipo y comunidad de Discourse,

Primero, gracias por el trabajo continuo en Discourse AI. El conjunto de características es impresionante y evoluciona claramente rápido.

Me gustaría proponer dos mejoras de UX/administración que reducirían significativamente el tiempo de configuración y los errores de configuración para los administradores, especialmente aquellos que gestionan múltiples modelos/proveedores o múltiples entornos (staging/producción).

1) Autodescubrimiento de modelos LLM para endpoints compatibles con OpenAI

Hoy en día, al añadir LLM, los administradores a menudo necesitan pegar manualmente un ID de modelo para cada entrada. Para los proveedores y gateways compatibles con OpenAI (por ejemplo, endpoints compatibles con OpenAI autohospedados, capas de proxy/gateway), sería extremadamente útil que la interfaz de usuario pudiera obtener opcionalmente los modelos disponibles después de introducir la URL Base + clave API.

UX Sugerida

  • El administrador introduce la URL Base + clave API
  • Hace clic en “Obtener modelos” (Fetch models)
  • Discourse llama a /v1/models (o el equivalente del proveedor)
  • La interfaz de usuario presenta un menú desplegable/lista donde se puede buscar
  • El administrador selecciona uno o más modelos para añadir/configurar

Notas

  • Si el endpoint no admite la lista, la interfaz de usuario puede volver elegantemente a la introducción manual del ID del modelo.
  • Un botón de actualización y un almacenamiento en caché de corta duración serían útiles, pero no necesarios para una implementación inicial.

2) Importación/Exportación para la configuración de Discourse AI

La superficie de configuración de Discourse AI es grande (conexiones LLM, Bot de IA, cuotas, alternadores de funciones, etc.). Si bien la flexibilidad es excelente, puede llevar mucho tiempo y ser propenso a errores configurarlo haciendo clic en muchas pantallas, especialmente al intentar mantener sincronizados staging y producción.

Me gustaría solicitar una capacidad de importación/exportación para la configuración de “Discourse AI” en su conjunto.

Comportamiento Sugerido

  • Exportar todos los ajustes relacionados con Discourse AI a un único archivo (preferiblemente JSON o YAML para el viaje de ida y vuelta)
  • Importar el archivo para aplicar la configuración a otro entorno o restaurar una configuración conocida y funcional
  • Proporcionar una vista previa/diferencia y validación (claves desconocidas, comprobaciones de tipo) antes de aplicar

Manejo de Secretos

  • Las claves API podrían excluirse/enmascararse por defecto, con una opción explícita para exportarlas por separado si es necesario.

Opcional (deseable)

  • Una exportación compatible con hojas de cálculo (CSV/XLSX) para revisión/edición masiva, manteniendo JSON/YAML como el formato principal y sin pérdidas.

Por qué ayudaría esto

  • Incorporación y reconfiguración más rápidas para los administradores
  • Menos errores por entrada manual repetitiva
  • Mejor paridad entre entornos (staging/producción)
  • Auditoría y gestión de cambios más fáciles a través de diferencias/control de versiones

Preguntas:

  • ¿Existe un enfoque recomendado existente para la “configuración masiva” (API de administración / consola de Rails) que podría formalizarse en un flujo de trabajo de importación/exportación?
  • ¿Sería aceptable el descubrimiento de modelos al menos para los endpoints compatibles con OpenAI donde /v1/models está disponible?

Gracias por considerar esta solicitud. Estoy a su disposición para proporcionar detalles adicionales, flujos de trabajo de ejemplo o capturas de pantalla de los pasos de configuración actuales si eso fuera útil.

Saludos cordiales,

1 me gusta