Publicaciones demasiado largas para PostSentimentAnalysis

Después de habilitar el análisis de sentimientos usando OpenAI, mi registro de errores se llena con

Job exception: Net::HTTPBadResponse

Luego en Sidekiq:

Jobs::PostSentimentAnalysis
Jobs::HandledExceptionWrapper: Wrapped Net::HTTPBadResponse: Net::HTTPBadResponse

Al observar los post_ids en cuestión, parece que el problema probablemente es causado por las publicaciones inusualmente largas. De lo contrario, los gráficos de sentimientos se generan sin ningún problema.

No sabía que el análisis de sentimientos se podía usar a través de OpenAI :thinking:

Para añadir más información, he configurado Número de tokens para el prompt según la recomendación (64000, que es el 50% de la ventana de contexto de 128K). Pero no estoy seguro de si esto juega algún papel.

No, no lo hace, porque entonces obtendrías un error diferente. Lo que obtienes es exactamente lo que suena, un código de estado incorrecto.

¿Cómo configuraste el análisis de sentimiento con GPT de OpenAI?

El mensaje de error no es muy descriptivo. Ni siquiera conozco el código HTTP exacto.

El culpable está claro, tiene algo que ver con la longitud de una publicación. En ese caso, la API de OpenAI devuelve 400 Bad Request.

Simplemente habilita el módulo ai sentiment enabled y funciona siempre que tengas los parámetros del modelo LLM ingresados.

1 me gusta

He experimentado configurando hasta 10.000 tokens y no he visto ninguna mejora. Net::HTTPBadResponse sigue llenando mi registro de errores.

¿Puedes compartir una captura de pantalla de tu configuración exacta y tu configuración de LLM?

Claro, aquí están la configuración


No hay una función de análisis de sentimientos a través de OpenAI en DiscourseAI. Sigue Discourse AI - Self-Hosted Guide si quieres ejecutarlo localmente.