El título lo dice todo: ¿habrá un plan para dar soporte a este modelo y, en caso afirmativo, hay una estimación aproximada de cuándo podría implementarse?
Esta es una mejora masiva para cualquiera que esté utilizando actualmente GPT 3.5 Turbo, ya que es más inteligente y más de un 60% más barato.
Ese es un buen punto. Sospecho que los problemas de alucinación no han mejorado con este modelo, sin embargo, logré mitigarlos en gran medida al poner un montón de restricciones en todo el prompt del sistema, aunque eso tiene sus propias desventajas, por supuesto.
Solo tiene sentido para la configuración manual del LLM. Así que me encuentro haciendo la misma pregunta
La idea es que configures tu LLM primero y luego elijas ese LLM para la función de IA de Discourse de tu elección, por eso actualmente están en dos lugares separados.
Hemos tenido algunas discusiones internas sobre quizás tener este proceso todo en un solo lugar, es decir, justo cuando configuras el LLM, también puedes activarlo para las funciones de IA específicas, como lo tenemos para el bot de IA.