Heute kündigen wir den Abschied vom Discourse AI - Toxicity Modul zugunsten von Discourse AI - AI triage an und nutzen die Leistung von Large Language Models (LLMs), um ein überlegenes Erlebnis zu bieten.
Warum tun wir das?
Zuvor bedeutete die Verwendung des Toxicity-Moduls…
Sie waren auf ein einziges vordefiniertes Modell beschränkt
Keine Anpassung für die spezifischen Bedürfnisse Ihrer Community
Verwirrende Schwellenwertmetriken
Unterdurchschnittliche Leistung
LLMs haben sich stark weiterentwickelt und können jetzt eine leistungsfähigere und anpassbarere Erfahrung bieten.
Was ist neu?
Discourse AI - AI triage kann verwendet werden, um Beiträge nach Toxizität (unter anderem) zu klassifizieren und Communities zur Einhaltung spezifischer Verhaltenskodizes zu zwingen. Das bedeutet…
Mehrere LLMs werden für unterschiedliche Leistungsanforderungen unterstützt
Einfache Definition, was und wie Inhalte behandelt werden sollen
Anpassbare Prompts für die spezifischen Bedürfnisse der Community
Inhalte zur Überprüfung markieren
und vieles mehr.
Um den Übergang zu unterstützen, haben wir bereits Anleitungen verfasst
Diese Ankündigung sollte als sehr früh betrachtet werden. Solange wir nicht bereit sind, das Modul stillzulegen, können Sie Toxicity weiterhin nutzen. Wenn wir es tun, werden wir das Modul stilllegen und allen Code aus dem Discourse AI-Plugin und den zugehörigen Diensten von unseren Servern entfernen.
Update: Das Toxicity-Modul wurde nun offiziell aus Discourse entfernt, einschließlich aller zugehörigen Website-Einstellungen und Funktionen. Wir fordern die Benutzer nun dringend auf, auf Discourse AI - AI triage umzusteigen und die oben aufgeführten Anleitungen zu befolgen.
Business- und Enterprise-Kunden sehen unter Was ist neu in den Admin-Einstellungen ihrer Websites die folgenden Optionen, die es ihnen ermöglichen, Discourse-gehostete LLMs zur Stromversorgung der KI-Triage ohne zusätzliche Kosten zu aktivieren.
Das ist äußerst relevant für einen Artikel, den ich gerade für das Community Leaders Institute schreibe, für meine Promotion über Toxizität und mehr. Wären Sie alle bereit, ein Interview hinter den Kulissen über dieses System für meinen YouTube-Kanal als Teil meiner Serie über die Immunisierung von Online-Communities gegen Toxizität zu führen? Es dient auch als akademisches Unterfangen für meine Promotion.
Vielen Dank, dass Sie Discourse für Ihren YouTube-Kanal in Betracht ziehen! Könnten Sie bitte weitere Details an mae@discourse.org senden, was genau das Behind-the-Scenes-Interview beinhalten würde und was von unserer Seite benötigt wird?
Zur Information: Wir blenden jetzt die Website-Einstellungen zum Aktivieren/Deaktivieren von Toxizität und NSFW aus. Dies ist Teil unserer fortlaufenden Bemühungen, die Funktionen weiterhin einzustellen.
Wenn Sie diese Funktionen aktiviert haben, werden sie weiterhin normal funktionieren. Wir haben die Funktionen noch NICHT vollständig eingestellt.
Wenn Sie sie deaktiviert haben und sie aktivieren möchten, ist dies nun nicht mehr möglich.