Was kommt als Nächstes bei der Erkennung von Toxizität in Discourse AI

Heute kündigen wir den Abschied vom Discourse AI - Toxicity Modul :waving_hand: zugunsten von Discourse AI - AI triage an und nutzen die Leistung von Large Language Models (LLMs), um ein überlegenes Erlebnis zu bieten.

Warum tun wir das?

Zuvor bedeutete die Verwendung des Toxicity-Moduls…

  • Sie waren auf ein einziges vordefiniertes Modell beschränkt
  • Keine Anpassung für die spezifischen Bedürfnisse Ihrer Community
  • Verwirrende Schwellenwertmetriken
  • Unterdurchschnittliche Leistung

LLMs haben sich stark weiterentwickelt und können jetzt eine leistungsfähigere und anpassbarere Erfahrung bieten.

Was ist neu?

Discourse AI - AI triage kann verwendet werden, um Beiträge nach Toxizität (unter anderem) zu klassifizieren und Communities zur Einhaltung spezifischer Verhaltenskodizes zu zwingen. Das bedeutet…

  • Mehrere LLMs werden für unterschiedliche Leistungsanforderungen unterstützt
  • Einfache Definition, was und wie Inhalte behandelt werden sollen
  • Anpassbare Prompts für die spezifischen Bedürfnisse der Community
  • Inhalte zur Überprüfung markieren

und vieles mehr.
Um den Übergang zu unterstützen, haben wir bereits Anleitungen verfasst

Was passiert mit Toxicity?

Diese Ankündigung sollte als sehr früh betrachtet werden. Solange wir nicht bereit sind, das Modul stillzulegen, können Sie Toxicity weiterhin nutzen. Wenn wir es tun, werden wir das Modul stilllegen und allen Code aus dem Discourse AI-Plugin und den zugehörigen Diensten von unseren Servern entfernen.

:backhand_index_pointing_right:t5: Update: Das Toxicity-Modul wurde nun offiziell aus Discourse entfernt, einschließlich aller zugehörigen Website-Einstellungen und Funktionen. Wir fordern die Benutzer nun dringend auf, auf Discourse AI - AI triage umzusteigen und die oben aufgeführten Anleitungen zu befolgen.

Business- und Enterprise-Kunden sehen unter Was ist neu in den Admin-Einstellungen ihrer Websites die folgenden Optionen, die es ihnen ermöglichen, Discourse-gehostete LLMs zur Stromversorgung der KI-Triage ohne zusätzliche Kosten zu aktivieren.

6 „Gefällt mir“

Gibt es ein Stichtagsdatum für das Toxizitätsmodul?

3 „Gefällt mir“

Wir haben kein bestimmtes Datum festgelegt, arbeiten aber derzeit daran, dies bald zu erledigen.

3 „Gefällt mir“

Das ist äußerst relevant für einen Artikel, den ich gerade für das Community Leaders Institute schreibe, für meine Promotion über Toxizität und mehr. Wären Sie alle bereit, ein Interview hinter den Kulissen über dieses System für meinen YouTube-Kanal als Teil meiner Serie über die Immunisierung von Online-Communities gegen Toxizität zu führen? Es dient auch als akademisches Unterfangen für meine Promotion.

Haben Sie Lust dazu?

2 „Gefällt mir“

Vielen Dank, dass Sie Discourse für Ihren YouTube-Kanal in Betracht ziehen! Könnten Sie bitte weitere Details an mae@discourse.org senden, was genau das Behind-the-Scenes-Interview beinhalten würde und was von unserer Seite benötigt wird?

2 „Gefällt mir“

Zur Information bezüglich der folgenden Änderung

2 „Gefällt mir“

Danke, Mae! Ich habe nachgehakt!

1 „Gefällt mir“

Zur Information: Wir blenden jetzt die Website-Einstellungen zum Aktivieren/Deaktivieren von Toxizität und NSFW aus. Dies ist Teil unserer fortlaufenden Bemühungen, die Funktionen weiterhin einzustellen.

Wenn Sie diese Funktionen aktiviert haben, werden sie weiterhin normal funktionieren. Wir haben die Funktionen noch NICHT vollständig eingestellt.

Wenn Sie sie deaktiviert haben und sie aktivieren möchten, ist dies nun nicht mehr möglich.

1 „Gefällt mir“

Hallo Leute, ich wollte euch nur dieses Update mitteilen

1 „Gefällt mir“