Discourse AI no traduce un gran número de publicaciones y temas

Mi experiencia es todo lo contrario. Tengo un conjunto de instrucciones que quiero que se sigan y que requieren la comprensión del contexto, las cuales son ignoradas por los modelos que no piensan o se aplican en situaciones erróneas. Acabo de traducir una aplicación completa de esta manera: más de 3000 cadenas, con modelos de razonamiento que dan resultados mucho mejores.

Reduje el esfuerzo de pensamiento a bajo según mis hallazgos y obtuve todas las traducciones. Pero creo que limitar los tokens de salida de esa manera es contraproducente, ya que los modelos de pensamiento no tienen restricciones para ser utilizados en traducciones, y el usuario no tiene ni idea de por qué está fallando.

La solución podría ser tan simple como multiplicar por 2 si el LLM tiene el pensamiento habilitado. O exponer un multiplicador como una opción de configuración.

2 Me gusta