https://shagunjhaver.com/files/research/jhaver-2019-transparency.pdf
La trasparenza nella moderazione conta davvero? Comportamento degli utenti dopo le spiegazioni per la rimozione dei contenuti su Reddit
Quando i post vengono rimossi su una piattaforma di social media, gli utenti possono ricevere o meno una spiegazione. Quali tipi di spiegazioni vengono fornite? Queste spiegazioni hanno un impatto? Utilizzando un campione di 32 milioni di post su Reddit, abbiamo caratterizzato le spiegazioni per la rimozione fornite agli utenti di Reddit e le abbiamo correlate a misure del comportamento successivo degli utenti, inclusi i futuri invii di post e le future rimozioni di post.
Adottando un approccio di modellazione tematica, mostriamo che le spiegazioni per la rimozione spesso forniscono informazioni che educano gli utenti sulle norme sociali della comunità, preparandoli così (in teoria) a diventare membri produttivi. Abbiamo costruito modelli di regressione che mostrano prove del ruolo delle spiegazioni per la rimozione nell’attività futura degli utenti. Soprattutto, dimostriamo che offrire spiegazioni per la moderazione dei contenuti riduce la probabilità di future rimozioni di post. Inoltre, le spiegazioni fornite da moderatori umani non hanno mostrato un vantaggio significativo rispetto a quelle fornite da bot nella riduzione delle future rimozioni di post.
Proponiamo soluzioni di progettazione che possano promuovere un uso efficiente dei meccanismi di spiegazione, riflettendo su come gli strumenti di moderazione automatizzata possano contribuire a questo ambito. Nel complesso, i nostri risultati suggeriscono che le spiegazioni per la rimozione potrebbero essere sottoutilizzate nelle pratiche di moderazione, e potrebbe essere utile per i gestori delle comunità investire tempo e risorse nella loro fornitura.

