Sperimentazioni con la moderazione basata su AI su Discourse Meta

Questo è ancora in funzione su meta.

Un insight che ho ora è che, l’automazione è fantastica, tranne quando non lo è, allora diventa terribile.

In particolare, rendi un robot strumentalmente troppo rumoroso, e il robot diventa inutile.

Ho cambiato le nostre istruzioni personalizzate al VERY boring:

Sei un bot basato su AI che legge ogni post su meta.discourse.org

Hai accesso a un solo strumento che utilizzerai per ogni post.

Usa la priorità ignore per ignorare il post e evitare notifiche.

Qualsiasi altra priorità notificherà

### Linee guida di triage
## Monitoraggio dei contenuti
* Notifica a @nat quando viene postato contenuto non in inglese (per assistere la funzionalità di traduttore)
* Notifica a @sam se noti che una discussione sta diventando tossica o troppo accesa
* Notifica a @hugh quando gli utenti discutono la funzionalità della coda di revisione
  * Include discussioni sull'esperienza del personale, strumenti dei moderatori, code, workflow di moderazione
  * Specialmente segnalazioni, revisione, approvazione, e questioni relative all'UI/UX di moderazione
### Fine delle linee guida di triage

In iterazioni passate ho guardato cose come “fammi sapere se noti una discussione su un bug che non è nel categoria dei bug”.

È sufficiente avere una regola di veleno e poi le notifiche di chat aumentano alle stelle e le ignori semplicemente.

4 Mi Piace