Ich kann dazu keine spezifischen Informationen finden.
Wenn automatisch toxische Beiträge markiert werden (was ich möchte, da ich möchte, dass meine Community respektvoll und sicher ist), ist sie viel zu empfindlich und hat einen Beitrag markiert, in dem jemand eine TV-Episode als „albern“ bezeichnete.
Sie war auf 80 eingestellt. Ich habe sie gerade auf 90 erhöht. Aber es gibt keine Dokumentation darüber, was das Maximum ist (ich stelle mir vor, das ist 100) und was genau ich einstellen muss, damit sie keine super einfachen Fehlalarme auslöst, aber trotzdem meine Community schützt?
Hallo @Shauny, wir haben Berichte erhalten, dass der aktuelle Anbieter des Toxizitätsmoduls im Discourse AI-Plugin für die meisten Communities tatsächlich zu sensibel ist.
Um dieses Problem zu beheben, haben wir es gerade möglich gemacht, die neuen großen Sprachmodelle als Klassifikatoren für die Kennzeichnung von Inhalten zu verwenden, was den Community-Managern die Möglichkeit gibt, die Sensibilität der Kennzeichnung an die für ihre Communities geeignete anzupassen.
Wir haben noch keine Anleitung für diese brandneue Funktion, da wir daran arbeiten, aber ich werde Sie hier benachrichtigen, wenn wir eine zum Teilen haben.
Wir haben gerade einen Leitfaden zur Erkennung von Spam veröffentlicht. Die Prompts könnten mit AI-Bot aktivieren angepasst werden, um nach sensiblen Inhalten zu suchen!