Les messages sont trop longs pour PostSentimentAnalysis

Après avoir activé l’analyse des sentiments à l’aide d’OpenAI, mon journal d’erreurs est rempli de

Job exception: Net::HTTPBadResponse

Puis dans Sidekiq :

Jobs::PostSentimentAnalysis
Jobs::HandledExceptionWrapper: Wrapped Net::HTTPBadResponse: Net::HTTPBadResponse

En examinant les post_ids concernés, il semble que le problème soit probablement causé par les publications inhabituellement longues. Sinon, les graphiques de sentiments sont générés sans aucun problème.

Je ne savais pas que l’analyse de sentiments pouvait être utilisée via OpenAI :thinking:

Pour ajouter plus d’informations, j’ai défini Nombre de tokens pour l'invite conformément à la recommandation (64000, soit 50 % de la fenêtre de contexte de 128 K). Mais je ne suis pas sûr que cela joue un rôle.

Non, ce n’est pas le cas, car vous obtiendriez alors une erreur différente. Ce que vous obtenez est exactement ce que cela signifie, un mauvais code d’état.

Comment avez-vous configuré l’analyse des sentiments à l’aide de GPT d’OpenAI ?

Le message d’erreur n’est pas très descriptif. Je ne connais même pas le code HTTP exact.

Le coupable est évident, cela a quelque chose à voir avec la longueur d’un message. Dans ce cas, l’API OpenAI renvoie 400 Bad Request.

Il suffit d’activer le module ai sentiment enabled et cela fonctionne tant que les paramètres du modèle LLM sont saisis.

1 « J'aime »

J’ai expérimenté en réglant jusqu’à 10 000 jetons et aucune amélioration. Net::HTTPBadResponse remplit toujours mon journal d’erreurs.

Pouvez-vous partager une capture d’écran de votre configuration exacte et de votre configuration LLM.

Bien sûr, voici les paramètres


Il n’y a pas de fonctionnalité d’analyse des sentiments via OpenAI dans DiscourseAI. Veuillez suivre Discourse AI - Self-Hosted Guide si vous souhaitez l’exécuter localement.