La trasparenza nella moderazione è davvero importante

https://shagunjhaver.com/files/research/jhaver-2019-transparency.pdf

La trasparenza nella moderazione conta davvero? Comportamento degli utenti dopo le spiegazioni per la rimozione dei contenuti su Reddit

Quando i post vengono rimossi su una piattaforma di social media, gli utenti possono ricevere o meno una spiegazione. Quali tipi di spiegazioni vengono fornite? Queste spiegazioni hanno un impatto? Utilizzando un campione di 32 milioni di post su Reddit, abbiamo caratterizzato le spiegazioni per la rimozione fornite agli utenti di Reddit e le abbiamo correlate a misure del comportamento successivo degli utenti, inclusi i futuri invii di post e le future rimozioni di post.

Adottando un approccio di modellazione tematica, mostriamo che le spiegazioni per la rimozione spesso forniscono informazioni che educano gli utenti sulle norme sociali della comunità, preparandoli così (in teoria) a diventare membri produttivi. Abbiamo costruito modelli di regressione che mostrano prove del ruolo delle spiegazioni per la rimozione nell’attività futura degli utenti. Soprattutto, dimostriamo che offrire spiegazioni per la moderazione dei contenuti riduce la probabilità di future rimozioni di post. Inoltre, le spiegazioni fornite da moderatori umani non hanno mostrato un vantaggio significativo rispetto a quelle fornite da bot nella riduzione delle future rimozioni di post.

Proponiamo soluzioni di progettazione che possano promuovere un uso efficiente dei meccanismi di spiegazione, riflettendo su come gli strumenti di moderazione automatizzata possano contribuire a questo ambito. Nel complesso, i nostri risultati suggeriscono che le spiegazioni per la rimozione potrebbero essere sottoutilizzate nelle pratiche di moderazione, e potrebbe essere utile per i gestori delle comunità investire tempo e risorse nella loro fornitura.

9 Mi Piace

(A proposito, non ho letto il contenuto di quel documento, quindi questo è solo un commento generale sulla moderazione e sulla trasparenza della moderazione.)

Discourse è già eccellente e migliore della maggior parte dei software per forum: gli utenti vengono notificati della maggior parte delle azioni dei moderatori. Tuttavia, ritengo che potremmo senz’altro ampliare le funzionalità di moderazione.

Per fare un esempio, eliminiamo regolarmente linguaggio offensivo o attacchi personali dai post e alcuni utenti hanno protestato, chiedendo di essere invitati a apportare le modifiche loro stessi e di non toccare i loro post.

Ovviamente, ciò non è pratico: lo scopo principale di un moderatore nel rimuovere gli attacchi personali è evitare che la persona presa di mira li veda, il che potrebbe far degenerare la situazione. Inoltre, i moderatori non hanno il tempo di inviare un messaggio privato a un utente chiedendogli di apportare la modifica, annotare l’incidente, ricordarsi di verificare, inviare un altro messaggio o intraprendere altre azioni se l’utente non ha apportato le modifiche richieste: è semplicemente troppo gravoso per i team di moderazione.

Un’alternativa potrebbe essere l’uso del sistema di segnalazione che nasconde un post, ma cosa succede se l’utente lo rende di nuovo visibile o non apporta una modifica adeguata? Dovremmo comunque annotare di controllare, rendere di nuovo visibile il post, ecc. (Inoltre, rimuovere il post dalla vista ha anche altri aspetti negativi: può rallentare il flusso di una conversazione, può far sentire le persone che pubblicare è troppo scomodo, ecc., tutti problemi che solitamente si possono evitare con una semplice modifica da parte del moderatore.)

Credo fermamente che Discourse possa portare la moderazione al livello successivo, proprio come ha fatto in altri aspetti del software per forum :smiley: Tuttavia, richiederebbe molta più riflessione di un semplice post o thread: la moderazione è difficile (a nessuno piace essere moderato!)

Sarei felice di partecipare a tali discussioni e sono sicuro che @HAWK sarebbe prezioso in questo sforzo.

6 Mi Piace

Dipende un po’.

Per cose gravi come insulti razzisti, sessisti o bigotti, non credo ci sia alcun valore nel lasciare rifiuti tossici in giro a avvelenare continuamente la comunità, ad esempio:

Per violazioni più lievi, certo, modifica e poi lascia un avviso dello staff sul post.

6 Mi Piace

Concordo pienamente: ho una nota al riguardo nella nostra stanza dello staff:

Ciao a tutti,

Uno dei nostri membri si è recentemente dichiarato _____. Anche se è improbabile che subisca abusi da parte di un vero membro della comunità, è possibile che qualcuno con un conto in sospeso contro [argomento del forum] o la comunità possa prenderlo di mira come bersaglio facile o come modo per creare conflitti tra comunità.

  • Se un postatore è “nuovo” (cioè qualcuno che si è registrato di recente e ha pochissimi post) e fa commenti razzisti, transfobici, omofobi o sessisti, vi preghiamo di bannare immediatamente il suo account e di rimuovere tutti i post offensivi. Il messaggio di bann può essere semplicemente: “I commenti violano il nostro Codice di Condotta”.
  • Se un postatore è un membro regolare, vi preghiamo di eliminare il/i post offensivo/i e di inviare un messaggio privato (PM) all’utente per informarlo che il post è stato rimosso perché ritenuto in violazione delle nostre regole, e di invitare a non pubblicare ulteriori messaggi in quella discussione (o a contattare l’altro utente, se coinvolto) fino a quando un membro del team di Amministrazione non avrà esaminato la situazione e si sarà preso carico del caso/contattato direttamente l’utente. Se ignorano questa notifica e continuano a pubblicare nella discussione o a fare post abusivi, sospendete il loro account con il messaggio: “Mancato rispetto della richiesta del Moderatore. In attesa di revisione da parte dell’Amministrazione”.

Vi preghiamo quindi di registrare tutti gli incidenti in questa discussione e esamineremo ogni caso per valutare quali azioni siano necessarie. Se non sono disponibile e i problemi continuano (ad esempio, se altri stanno discutendo la questione in quella o in un’altra discussione), bloccate semplicemente la discussione con una notifica “In attesa di revisione da parte dell’Amministrazione”.

Le altre cose sono più complicate: ora vado a letto, ma cercherò di riprendere questo discorso domani.

(Quelle note dello staff sono visibili pubblicamente o solo alla persona che ha pubblicato il post, tra l’altro?)

2 Mi Piace

Aggiungi un avviso dello staff a un post direttamente tramite il menu chiave inglese e vedi…

6 Mi Piace

Non vogliamo dettare come le persone moderano le proprie comunità; vogliamo solo fornire gli strumenti affinché possano farlo come ritengono opportuno.

Quindi sono curioso: cosa si potrebbe fare diversamente? Puoi nascondere, puoi mostrare di nuovo, puoi eliminare, puoi dare alla comunità il potere di nascondere, puoi aggiungere avvisi dello staff.

4 Mi Piace

Ti vedo, Jeff! :smiley:

Per quanto riguarda questo tipo di avvisi, quasi certamente non li useremmo per qualsiasi forma di moderazione degli utenti, poiché preferiamo evitare di mettere in imbarazzo pubblico (o rimproverare) un utente se possibile. Affronteremmo i problemi relativi agli utenti in pubblico solo se non avessimo altra scelta (ad esempio, se il loro comportamento o la loro condotta iniziassero a influenzare sempre più persone sul forum).

Se questi avvisi fossero visibili solo al creatore del post, potremmo utilizzarli in alcuni casi, purché fosse chiaro che solo loro possono vederli.

Perché seguiamo questa strada? Perché le persone odiano essere moderate e, ancor di più, essere “umiliate” pubblicamente: può essere frustrante (e in un certo senso irrispettoso: se qualcuno ha commesso un errore genuino, non dovrebbe sentirsi un idiota davanti all’intera comunità). Offendere gli utenti in questo modo può creare enormi problemi in futuro: se si offendono, non dimenticheranno mai e ciò aggraverà le problematiche future, che potrebbero portare a conflitti all’interno della comunità o a litigi con i moderatori (sfortunatamente, questo non finisce mai bene). Nel peggiore dei casi, potrebbero abbandonare il forum o essere bannati e lanciare attacchi più dannosi. Non ne vale la pena, specialmente se eri abbastanza sicuro che si trattasse di un utente genuino.

Sono d’accordo: penso solo che al momento gli strumenti sembrino riflettere il modo tradizionale in cui veniva svolta la moderazione (con alcuni miglioramenti, ovviamente), ma credo che esista probabilmente un modo molto migliore (proprio come voi di DC avete dimostrato per altre aree del software per forum)… dobbiamo solo capire qual è questa strada migliore.

È un argomento enorme, ma penso che la cosa principale su cui dobbiamo concentrarci ora sia rendere la moderazione il più accettabile possibile, senza però gravare sul team di moderazione.

Sfortunatamente al momento non ho tempo di entrare nei dettagli, ma mi farebbe piacere parlarne più approfonditamente nel nuovo anno, forse? :blush:

2 Mi Piace

Ammetto che sono stato io a farlo.

Ho passato molti mesi a riflettere su questo (rivedendo il modo in cui moderavamo SitePoint prima di passare a Discourse) e credo che siamo arrivati a un punto davvero buono [per quel forum specifico] grazie a nuovi processi guidati dagli strumenti disponibili qui. Abbiamo praticamente buttato via tutto e ricominciato da capo, cosa che era più che necessaria.

Non sono sicuro di quali problemi di moderazione dobbiamo risolvere che non siano già stati risolti, quindi sono certamente interessato alle tue opinioni. Riconosco che è difficile pensare al di fuori dell’ambito delle comunità che hai gestito individualmente, ma credo sia importante partire da problemi reali, piuttosto che da presupposti.

Anche io. Il Capodanno sembra una buona idea. :slight_smile:

7 Mi Piace

Questo thread si è un po’ discostato dall’argomento, ma penso che il punto principale da trarre da questo articolo sia che vale la pena spiegare privatamente agli utenti che pubblicano contenuti in violazione delle linee guida perché i loro post vengono rimossi. Lo studio ha indicato che più dettagli vengono forniti, meglio è.

Quindi, in concreto, se il contenuto di qualcuno viene rimosso perché N persone l’hanno segnalato, credo che attualmente il messaggio automatizzato all’utente dica: “il tuo post è stato rimosso perché N persone ti hanno segnalato”; il messaggio non fornisce alcuna informazione sul motivo per cui il post potrebbe aver violato le linee guida della community.

Questo è solo un esempio. Sento che il senso generale sia: le rimozioni dovrebbero essere associate alle ragioni per cui il post è stato rimosso, ragioni su cui l’utente può agire per modificare/riparare il post, anche (soprattutto) se si tratta semplicemente di spiegazioni predefinite selezionate da un menu a tendina.

2 Mi Piace

Questo è errato. Fornisce informazioni sul tipo di segnalazione, come indicato nella finestra di dialogo delle segnalazioni: fuori tema, inappropriato, spam o “altro”.

5 Mi Piace

“Inappropriato” potrebbe aver bisogno di molta più struttura, dico io. “Cosa intendi, inappropriato?! Questo post è assolutamente a posto!”

3 Mi Piace