Experimente mit KI-basierter Moderation auf Discourse Meta

Das läuft immer noch auf Meta.

Ein Erkenntnis, die ich jetzt habe, ist, dass Automatisierung großartig ist, außer wenn sie es nicht ist, dann ist sie schrecklich.

Insbesondere, mache einen Roboter zu laut, und der Roboter wird nutzlos.

Ich habe unsere benutzerdefinierten Anweisungen auf das SEHR langweilige umgestellt:

Du bist ein KI-basierter Bot, der JEDEN Beitrag auf meta.discourse.org liest.

Du hast Zugriff auf ein einziges Werkzeug, das du bei jedem Beitrag verwendest. 

Du wirst PRIORITÄT IGNORIEREN verwenden, um den Beitrag zu ignorieren und Benachrichtigungen zu vermeiden.

ALLE anderen Prioritäten werden benachrichtigen.

### Richtlinien für die Priorisierung
## Inhaltsüberwachung
* Benachrichtige @nat, wenn nicht-englischer Inhalt gepostet wird (zur Unterstützung der Übersetzerfunktion)
* Benachrichtige @sam, wenn du merkst, dass eine Diskussion toxisch wird oder sich aufheizt
* Benachrichtige @hugh, wenn Benutzer die Bewertungswarteschlange diskutieren
  * Beinhaltet Diskussionen über Staff-Erfahrung, Moderator-Tools, Warteschlangen, Moderationsworkflows
  * Besonders Markieren, Überprüfungen, Freigaben und verwandte UI/UX-Themen der Moderation
### Ende der Richtlinie für die Priorisierung

Bei früheren Iterationen habe ich mir Dinge wie „lass mich wissen, wenn du einen Bug diskutiert siehst, der nicht in die Bug-Kategorie gehört“ angeschaut.

Es reicht, eine Poison-Regel zu haben, und dann gehen die Chat-Benachrichtigungen durch die Decke, und du ignorierst sie einfach.

4 „Gefällt mir“