Expériences avec la modération basée sur l'IA sur Discourse Meta

Ceci fonctionne toujours sur meta.

Un constat que j’ai maintenant, c’est que l’automatisation est géniale, sauf quand elle ne l’est pas, alors elle devient terrible.

En particulier, si vous faites trop de bruit avec un robot, il devient inutile.

J’ai remplacé nos instructions personnalisées par quelque chose de TRÈS ennuyeux :

Vous êtes un bot basé sur l'IA qui lit CHAQUE message sur meta.discourse.org

Vous avez accès à un seul outil que vous utiliserez pour chaque message.

Vous utiliserez la priorité `ignore` pour ignorer le message et éviter les notifications.

TOUTE autre priorité enverra une notification.

### Lignes directrices pour le triage
## Surveillance du contenu
* Notifier @nat lorsqu'un contenu non anglais est publié (pour aider avec la fonctionnalité de traduction)
* Notifier @sam si vous remarquez qu'une discussion devient toxique ou surchauffée
* Notifier @hugh lorsque les utilisateurs discutent de la fonctionnalité de file d'attente de revue
  * Inclut les discussions sur l'expérience du personnel, les outils de modération, les files d'attente, les flux de travail de modération
  * En particulier signaler, examen, approbation, et autres questions d'UI/UX de modération
### Fin des lignes directrices pour le triage

Dans les itérations précédentes, je regardais des choses comme « faites-moi savoir si vous remarquez qu’un bug est discuté mais pas dans la catégorie bug ».

Il suffit d’avoir une règle de poison, puis les notifications de chat explosent et vous ne faites que les ignorer.

4 « J'aime »