¿Se va a soportar GPT-4o mini aterrizado?

El título lo dice todo: ¿habrá un plan para dar soporte a este modelo y, en caso afirmativo, hay una estimación aproximada de cuándo podría implementarse?

Esta es una mejora masiva para cualquiera que esté utilizando actualmente GPT 3.5 Turbo, ya que es más inteligente y más de un 60% más barato.

Más información sobre este modelo en TechCrunch

1 me gusta

https://meta.discourse.org/t/discourse-chatbot/256652/899?u=aaron_walsh

4 Me gusta

Ya funciona con el plugin Discourse AI, solo necesitas asegurarte de usar gpt-4o-mini como nombre en tu configuración de LLM:

10 Me gusta

Esto es vergonzoso. Gracias jefe :grin::robot:
Quizás no he jugado lo suficiente con él; tomo nota.

2 Me gusta

Veremos qué tan más inteligente o mejor es alucinar :smirking_face: Recuerdo cuánto revuelo hubo cuando salió GPT-4o y ahora hay muchas quejas.

Pero es bueno intentarlo.

Un poco fuera de tema, pero no entiendo del todo por qué tenemos dos lugares para decirle al modelo y a la API, configuración y sección LLM.

1 me gusta

Ese es un buen punto. Sospecho que los problemas de alucinación no han mejorado con este modelo, sin embargo, logré mitigarlos en gran medida al poner un montón de restricciones en todo el prompt del sistema, aunque eso tiene sus propias desventajas, por supuesto.

Solo tiene sentido para la configuración manual del LLM. Así que me encuentro haciendo la misma pregunta :sweat_smile:

La idea es que configures tu LLM primero y luego elijas ese LLM para la función de IA de Discourse de tu elección, por eso actualmente están en dos lugares separados.

Hemos tenido algunas discusiones internas sobre quizás tener este proceso todo en un solo lugar, es decir, justo cuando configuras el LLM, también puedes activarlo para las funciones de IA específicas, como lo tenemos para el bot de IA.