Ho letto alcuni post incoraggianti qui sull’argomento della moderazione, come quello di @codinghorror qui1, e volevo dire la mia.
Le recenti rivelazioni di Twitter1 hanno rinvigorito il dibattito sull’uso di strumenti di moderazione simili a shadowban. Sono buoni o cattivi per il discorso? Con questo post spero di stimolare un dibattito tra moderatori e utenti sull’uso degli shadowban.
La mia ipotesi è che la moderazione trasparente favorisca una base di utenti preparata in cui moderatori e utenti si fidano l’uno dell’altro, e la shadow moderation crei più problemi di quanti ne risolva. Pertanto, sostengo che cose come lo shadowban non dovrebbero mai* essere utilizzate, nemmeno per forum “piccoli” come le installazioni di Discourse.
Su di me
Sono l’autore di Reveddit, un sito che mostra ai Redditor i loro contenuti rimossi segretamente. Reveddit è stato lanciato nel 2018 e da allora sono stato schietto su Reddit1, Hacker News1 e più recentemente su Twitter1 riguardo alla mia opposizione all’uso diffuso di strumenti simili a shadowban, che chiamo Shadow Moderation. Nel caso ci fossero dubbi sul fatto che una qualche forma di shadow moderation stia avvenendo su tutte le piattaforme più popolari, si prega di consultare anche il mio intervento per Truth and Trust Online 20221, slide 8-9 alle 5:50, o la mia apparizione su Using the Whole Whale1. Se ci sono dubbi sul fatto che la pratica sia impopolare tra gli utenti di ogni estrazione, si prega di consultare le reazioni di migliaia di utenti nella FAQ di Reveddit1.
Prefazione
Per riferimento, ecco alcune definizioni esistenti di comportamento simile a shadowban:
- “rendere deliberatamente il contenuto di qualcuno non scopribile a tutti tranne che alla persona che lo ha pubblicato, all’insaputa dell’autore originale”. - Blog di Twitter1
- “Un utente hellbanned è invisibile a tutti gli altri utenti, ma crucialmente, non a se stesso. Dalla loro prospettiva, stanno partecipando normalmente alla comunità ma nessuno risponde mai loro. Non possono più disturbare la comunità perché sono effettivamente un fantasma.” - Coding Horror1
E qui ci sono due definizioni da parte mia:
-
Moderazione Trasparente: Quando gli utenti vengono avvisati delle azioni intraprese contro i loro contenuti.
-
Shadow Moderation: Qualsiasi cosa che nasconda le azioni dei moderatori all’autore del contenuto sanzionato.
Si noti che quando le piattaforme parlano di trasparenza, intendono semplicemente che delineano chiaramente le loro politiche. Questo non è la stessa cosa della moderazione trasparente.
E per essere chiari, supporto l’uso della moderazione che è trasparente. Non supportare l’intervento governativo sui social media per imporre la trasparenza alle piattaforme, come sta tentando di fare PATA1 negli Stati Uniti o il DSA1 in Europa (rispettivamente Platform Accountability and Transparency Act e Digital Services Act). Pertanto, accetto anche il diritto legale delle piattaforme di impegnarsi nella shadow moderation.
Il caso per la moderazione trasparente
Il caso per la moderazione trasparente è meglio definito come un caso contro la shadow moderation.
La shadow moderation va contro l’habeas corpus, un concetto millenario secondo cui l’accusato ha il diritto di confrontarsi con il proprio accusatore. I valori dell’habeas corpus sono sanciti nella Costituzione degli Stati Uniti come emendamento (il 6°), ma è anche una dignità fondamentale che ci aspettiamo per noi stessi e quindi dovremmo dare agli altri. In parole povere, le punizioni segrete sono ingiuste.
Ora potreste dire: “ma queste sono piattaforme private!” In effetti lo sono. Eppure, in privato cerchiamo ancora di sostenere certi ideali, come spiega Greg Lukianoff di FIRE qui.
John Stuart Mill ha sostenuto la stessa tesi in On Liberty dove scrisse: “La protezione, quindi, contro la tirannia del magistrato non è sufficiente: è necessaria anche la protezione contro la tirannia dell’opinione e del sentimento prevalenti.” 1
Ora potreste dire: “Ne abbiamo bisogno per gestire lo spam dei bot!” Questo funzionerà solo per un breve periodo. A lungo termine, i bot scopriranno come controllare la visibilità dei loro contenuti, mentre gli utenti per lo più non lo faranno. Pertanto, la moderazione trasparente funzionerà altrettanto bene per i bot, e la shadow moderation danneggia solo gli individui genuini.
Forse direte: “Lo sto usando solo su un forum piccolo.” E lì chiederei, è davvero necessario ricorrere all’inganno? Abituarsi alla shadow moderation su una piccola installazione di Discourse potrebbe essere un trampolino di lancio verso il suo sostegno su piattaforme più grandi, e il danno lì mi è chiaro. Ogni lato di ogni questione, in ogni geografia, su ogni piattaforma è impattato. Oltre il 50% degli utenti di Reddit ha qualche commento rimosso nel loro ultimo mese di utilizzo. Interrompe un numero incalcolabile di conversazioni, forse per paura di ciò che accadrà se l’odio verrà “scatenato”. Ma Reveddit esiste da quattro anni, e ciò non è accaduto. Invece, quello che ho osservato sono comunità più sane, e ne ho collegati molti esempi nel mio intervento.
La shadow moderation su larga scala potenzia anche il tuo avversario ideologico. I gruppi che consideri incivili sono più propensi a fare un uso incivile della shadow moderation. Qualsiasi vantaggio che hai quando sei nella posizione di implementare tali strumenti svanirà nel tempo. E finché utilizzerai la shadow moderation, non vincerai argomenti sul suo uso altrove.
A mia conoscenza, sono state fatte poche ricerche per studiare gli effetti della shadow moderation. Conosco uno studio che indica che il carico di lavoro dei moderatori diminuisce all’aumentare della trasparenza1. Eppure sappiamo che le società aperte prosperano rispetto a quelle chiuse.
Se lasciata incontrollata, la shadow moderation crea gruppi tribali isolati che non sono preparati per conversazioni nel mondo reale dove tali protezioni non sono disponibili. Ciò può portare ad atti di violenza o autolesionismo perché il danno inflitto dalle parole è reale quando non riusciamo ad accettare i limiti di ciò che possiamo controllare. Possiamo invece scegliere di rispondere all’odio con contro-discorso e incoraggiare le basi di utenti a fare lo stesso.
Infine, la nuova legislazione non può risolvere questo problema per noi. Qualsiasi legge del genere violerebbe le nostre libertà individuali e avrebbe la conseguenza involontaria di (a) potenziare la stessa entità contro cui è stato progettato il Bill of Rights, o (b) non funzionare, poiché non c’è modo di imporre la trasparenza senza dare al governo l’accesso a tutto il codice. Quindi si torna al punto di partenza o peggio di quando si è iniziato. Il sostegno all’habeas corpus e quindi al discorso civile si ottiene meglio attraverso il supporto culturale per una moderazione effettivamente trasparente. Qualsiasi cosa al di sotto di questo sarebbe un cerotto che copre una ferita purulenta.
Conclusione
In conclusione, non si dovrebbe adottare la posizione: “lo sta facendo lui, quindi devo farlo anch’io per competere su un piano di parità”. Considerate invece che potreste entrambi avere un piano di parità scadente. Le installazioni di Discourse e altri forum che non utilizzano la shadow moderation hanno una base più solida. Le loro basi di utenti sono preparate, moderatori e utenti si fidano l’uno dell’altro e, pertanto, entrambi si sentono liberi di parlare apertamente e onestamente. E, dato l’uso diffuso della shadow moderation, è ora più importante che mai sostenere vocalmente la moderazione trasparente.
Appendice
Un uso della shadow moderation su Twitter, non ancora segnalato, potrebbe essere quando i Tweet vengono automaticamente nascosti in base a menzioni di determinati link. L’ho scoperto quando ho condiviso un link al mio nuovo blog per il quale avevo acquistato un dominio economico da 2 dollari all’anno con l’estensione .win. Dopo averlo condiviso tramite Twitter, ho notato che i miei tweet apparivano a ME ma NON agli altri. Ad esempio, questo tweet1 non mostra la risposta mia, anche quando si fa clic sul pulsante “Mostra risposte aggiuntive”. Per vedere la mia risposta, è necessario accedere direttamente al link1. Effettivamente, quella risposta non è visibile a nessuno che non mi conosca già, e il sistema nasconde quel fatto a me mentre sono loggato.
* L’unica circostanza in cui penso che la censura diffusa sia utile è quando la società ha dimenticato i suoi danni. In quel caso, inevitabilmente ritorna, anche solo per ricordarci ancora una volta i suoi effetti deleteri.