Ich habe die Audit-Logs überprüft und sie gaben eine leere Antwort zurück. Ich habe die Regel erneut ausgelöst und dieses Mal hat sie funktioniert.
Hallo,
Ich bin mir nicht sicher, wo ich das melden soll oder ob es sich lohnt, aber es scheint, dass die Discourse AI-Zusammenfassungsfunktion halluziniert – ziemlich oft.
Beispiel:
Ein Thema wurde erstellt, es gab keine Antworten oder Interaktionen von Benutzern. Es wurden keine Lösungen diskutiert oder untersucht. Siehe Beitrag.
Dennoch gibt der Bot selbstbewusst an: „Einige Optionen wurden diskutiert, aber keine definitive Lösung.“
Gibt es keine Möglichkeit, dies zu filtern, sodass, wenn ein Beitrag keine Antworten hat, die Zusammenfassung nicht erfunden wird?
Wenn Sie meinen „kann man Bert dazu bringen, nicht mehr zu halluzinieren“, dann nein, das kann ich nicht durchgängig tun. ![]()
Ich denke jedoch, dass die zugrunde liegenden Tools ständig besser werden und die Genauigkeit mit ihnen zunimmt.
Ich beabsichtige, schließlich zu einer Verschmelzung von Themendeskriptionen für den Abschnitt Themendeskriptionen überzugehen.
Dies kann eine Reihe von Problemen beseitigen, aber die Erhöhung der Zuverlässigkeit mit den aktuellen Werkzeugen wird die Kosten erheblich erhöhen. Sie müssten Runden der Validierung generieren und dann durchführen, was sehr kostspielig werden könnte.
Auf Daily Summary (5am UTC) - #149 und Daily Summary (5am UTC) - #148 scheinen einige Themen falsch geschrieben worden zu sein. Anstelle von #site-feedback stand dort #site feedback, weshalb das Thema den Link nicht erhielt. Dann stand anstelle von #dev:translations #translations. Ebenso wurde #Self-hosting anstelle von #documentation:self-hosting eingegeben.
Ja, das ist bekannt. Es lohnt sich nicht wirklich, sie manuell zu bearbeiten oder viel Zeit mit der Anpassung des Prompts zu verbringen, um dies zu umgehen. ![]()
Bert hat schon wieder die falschen Pilze gegessen
Aber… aber du hast nicht mal in diesem Thema gepostet, lol.
(Außerdem, was ist mit Bert und Pilzen?)
Bert scheint im Allgemeinen der Spitzname für Metas KI-Bot zu sein.
Scheint, als wäre das behoben worden? UND genauso formatiert wie die ursprünglichen paar Posts? (Für diesen hier, aber es scheint, als wären beim 13-Uhr-Post die Kategorien behoben, obwohl es nicht wie bei den ersten paar aussieht (wo die Kategorien fett gedruckt sind))
Wir sind auf Claude 3.5 Sonnet umgestiegen, daher ist die Qualität etwas besser.
Hat die KI gerade aufgegeben, sie (Kategorien) in eine Klasse ‘mention’ zu setzen? Oder wurde die Eingabeaufforderung geändert?
https://meta.discourse.org/t/daily-summary-5am-utc/291851/179?u=natedhaliwal
EDIT: Sieht so aus, als hätte es sich im nächsten Beitrag selbst behoben.
Es scheint, dass die KI keine Themen derselben Kategorie zusammengefasst hat, sodass der Beitrag viele viele Themen enthält, ohne erkennbare Reihenfolge.
(Ich bin mir nicht sicher, ob dieser Beitrag hierher gehört)
https://meta.discourse.org/t/weekly-summary/291947/30?u=natedhaliwal
Fast richtig ![]()
Ach komm schon. @Moin hat den ersten gemacht und das zweite Thema handelte von etwas anderem, lol
Ich fühle mich geschmeichelt, dass der Bot denkt, ich mache Moin’s Sachen. ![]()
Es wurde keine Funktionsanfrage gestellt, da bereits eine existiert. Ich habe sie nur verlinkt. Das war in Support ![]()
Ich habe an diesem Thema nicht teilgenommen ![]()
Oh, jetzt denkt der Bot, ich sei Hugh.
![]()
Es hat einen großen Fehler gemacht


