Beiträge zu lang für PostSentimentAnalysis

Nachdem die Sentimentanalyse mit OpenAI aktiviert wurde, ist mein Fehlerprotokoll gefüllt mit

Job exception: Net::HTTPBadResponse

Dann in Sidekiq:

Jobs::PostSentimentAnalysis
Jobs::HandledExceptionWrapper: Wrapped Net::HTTPBadResponse: Net::HTTPBadResponse

Wenn ich mir die betreffenden post_ids ansehe, scheint das Problem wahrscheinlich durch die ungewöhnlich langen Beiträge verursacht zu werden. Ansonsten werden die Sentiment-Graphen ohne Probleme generiert.

Ich wusste nicht, dass Sentimentanalyse über OpenAI genutzt werden kann :thinking:

Um weitere Informationen hinzuzufügen, habe ich Anzahl der Tokens für den Prompt gemäß der Empfehlung (64000, was 50 % des 128K-Kontextfensters entspricht) eingestellt. Aber ich bin mir nicht sicher, ob das eine Rolle spielt.

Nein, das tut es nicht, denn dann würdest du einen anderen Fehler bekommen. Was du bekommst, ist genau das, was es sagt, ein falscher Statuscode.

Wie hast du die Stimmungsanalyse mit GPT von OpenAI eingerichtet?

Die Fehlermeldung ist nicht gerade aussagekräftig. Ich kenne nicht einmal den genauen HTTP-Code.

Der Schuldige ist klar, es hat etwas mit der Länge eines Beitrags zu tun. In diesem Fall gibt die OpenAI API 400 Bad Request zurück.

Sie aktivieren einfach das Modul ai sentiment enabled und es funktioniert, solange Sie die LLM-Modellparameter eingegeben haben.

1 „Gefällt mir“

Ich habe mit Einstellungen von bis zu 10.000 Tokens experimentiert und keine Verbesserung festgestellt. Net::HTTPBadResponse füllt immer noch mein Fehlerprotokoll.

Können Sie einen Screenshot Ihrer genauen Konfiguration und Ihrer LLM-Konfiguration teilen?

Sicher, hier sind die Einstellungen


Es gibt keine Sentiment-Analyse-Funktion über OpenAI in DiscourseAI. Bitte folgen Sie Discourse AI - Self-Hosted Guide, wenn Sie sie lokal ausführen möchten.