Gli shadowban fanno male al dibattito, ed ecco perché

Ho letto alcuni post incoraggianti qui sull’argomento della moderazione, come quello di @codinghorror qui1, e volevo dire la mia.

Le recenti rivelazioni di Twitter1 hanno rinvigorito il dibattito sull’uso di strumenti di moderazione simili a shadowban. Sono buoni o cattivi per il discorso? Con questo post spero di stimolare un dibattito tra moderatori e utenti sull’uso degli shadowban.

La mia ipotesi è che la moderazione trasparente favorisca una base di utenti preparata in cui moderatori e utenti si fidano l’uno dell’altro, e la shadow moderation crei più problemi di quanti ne risolva. Pertanto, sostengo che cose come lo shadowban non dovrebbero mai* essere utilizzate, nemmeno per forum “piccoli” come le installazioni di Discourse.

Su di me

Sono l’autore di Reveddit, un sito che mostra ai Redditor i loro contenuti rimossi segretamente. Reveddit è stato lanciato nel 2018 e da allora sono stato schietto su Reddit1, Hacker News1 e più recentemente su Twitter1 riguardo alla mia opposizione all’uso diffuso di strumenti simili a shadowban, che chiamo Shadow Moderation. Nel caso ci fossero dubbi sul fatto che una qualche forma di shadow moderation stia avvenendo su tutte le piattaforme più popolari, si prega di consultare anche il mio intervento per Truth and Trust Online 20221, slide 8-9 alle 5:50, o la mia apparizione su Using the Whole Whale1. Se ci sono dubbi sul fatto che la pratica sia impopolare tra gli utenti di ogni estrazione, si prega di consultare le reazioni di migliaia di utenti nella FAQ di Reveddit1.

Prefazione

Per riferimento, ecco alcune definizioni esistenti di comportamento simile a shadowban:

  • “rendere deliberatamente il contenuto di qualcuno non scopribile a tutti tranne che alla persona che lo ha pubblicato, all’insaputa dell’autore originale”. - Blog di Twitter1
  • “Un utente hellbanned è invisibile a tutti gli altri utenti, ma crucialmente, non a se stesso. Dalla loro prospettiva, stanno partecipando normalmente alla comunità ma nessuno risponde mai loro. Non possono più disturbare la comunità perché sono effettivamente un fantasma.” - Coding Horror1

E qui ci sono due definizioni da parte mia:

  • Moderazione Trasparente: Quando gli utenti vengono avvisati delle azioni intraprese contro i loro contenuti.

  • Shadow Moderation: Qualsiasi cosa che nasconda le azioni dei moderatori all’autore del contenuto sanzionato.

Si noti che quando le piattaforme parlano di trasparenza, intendono semplicemente che delineano chiaramente le loro politiche. Questo non è la stessa cosa della moderazione trasparente.

E per essere chiari, supporto l’uso della moderazione che è trasparente. Non supportare l’intervento governativo sui social media per imporre la trasparenza alle piattaforme, come sta tentando di fare PATA1 negli Stati Uniti o il DSA1 in Europa (rispettivamente Platform Accountability and Transparency Act e Digital Services Act). Pertanto, accetto anche il diritto legale delle piattaforme di impegnarsi nella shadow moderation.

Il caso per la moderazione trasparente

Il caso per la moderazione trasparente è meglio definito come un caso contro la shadow moderation.

La shadow moderation va contro l’habeas corpus, un concetto millenario secondo cui l’accusato ha il diritto di confrontarsi con il proprio accusatore. I valori dell’habeas corpus sono sanciti nella Costituzione degli Stati Uniti come emendamento (il 6°), ma è anche una dignità fondamentale che ci aspettiamo per noi stessi e quindi dovremmo dare agli altri. In parole povere, le punizioni segrete sono ingiuste.

Ora potreste dire: “ma queste sono piattaforme private!” In effetti lo sono. Eppure, in privato cerchiamo ancora di sostenere certi ideali, come spiega Greg Lukianoff di FIRE qui.

John Stuart Mill ha sostenuto la stessa tesi in On Liberty dove scrisse: “La protezione, quindi, contro la tirannia del magistrato non è sufficiente: è necessaria anche la protezione contro la tirannia dell’opinione e del sentimento prevalenti.” 1

Ora potreste dire: “Ne abbiamo bisogno per gestire lo spam dei bot!” Questo funzionerà solo per un breve periodo. A lungo termine, i bot scopriranno come controllare la visibilità dei loro contenuti, mentre gli utenti per lo più non lo faranno. Pertanto, la moderazione trasparente funzionerà altrettanto bene per i bot, e la shadow moderation danneggia solo gli individui genuini.

Forse direte: “Lo sto usando solo su un forum piccolo.” E lì chiederei, è davvero necessario ricorrere all’inganno? Abituarsi alla shadow moderation su una piccola installazione di Discourse potrebbe essere un trampolino di lancio verso il suo sostegno su piattaforme più grandi, e il danno lì mi è chiaro. Ogni lato di ogni questione, in ogni geografia, su ogni piattaforma è impattato. Oltre il 50% degli utenti di Reddit ha qualche commento rimosso nel loro ultimo mese di utilizzo. Interrompe un numero incalcolabile di conversazioni, forse per paura di ciò che accadrà se l’odio verrà “scatenato”. Ma Reveddit esiste da quattro anni, e ciò non è accaduto. Invece, quello che ho osservato sono comunità più sane, e ne ho collegati molti esempi nel mio intervento.

La shadow moderation su larga scala potenzia anche il tuo avversario ideologico. I gruppi che consideri incivili sono più propensi a fare un uso incivile della shadow moderation. Qualsiasi vantaggio che hai quando sei nella posizione di implementare tali strumenti svanirà nel tempo. E finché utilizzerai la shadow moderation, non vincerai argomenti sul suo uso altrove.

A mia conoscenza, sono state fatte poche ricerche per studiare gli effetti della shadow moderation. Conosco uno studio che indica che il carico di lavoro dei moderatori diminuisce all’aumentare della trasparenza1. Eppure sappiamo che le società aperte prosperano rispetto a quelle chiuse.

Se lasciata incontrollata, la shadow moderation crea gruppi tribali isolati che non sono preparati per conversazioni nel mondo reale dove tali protezioni non sono disponibili. Ciò può portare ad atti di violenza o autolesionismo perché il danno inflitto dalle parole è reale quando non riusciamo ad accettare i limiti di ciò che possiamo controllare. Possiamo invece scegliere di rispondere all’odio con contro-discorso e incoraggiare le basi di utenti a fare lo stesso.

Infine, la nuova legislazione non può risolvere questo problema per noi. Qualsiasi legge del genere violerebbe le nostre libertà individuali e avrebbe la conseguenza involontaria di (a) potenziare la stessa entità contro cui è stato progettato il Bill of Rights, o (b) non funzionare, poiché non c’è modo di imporre la trasparenza senza dare al governo l’accesso a tutto il codice. Quindi si torna al punto di partenza o peggio di quando si è iniziato. Il sostegno all’habeas corpus e quindi al discorso civile si ottiene meglio attraverso il supporto culturale per una moderazione effettivamente trasparente. Qualsiasi cosa al di sotto di questo sarebbe un cerotto che copre una ferita purulenta.

Conclusione

In conclusione, non si dovrebbe adottare la posizione: “lo sta facendo lui, quindi devo farlo anch’io per competere su un piano di parità”. Considerate invece che potreste entrambi avere un piano di parità scadente. Le installazioni di Discourse e altri forum che non utilizzano la shadow moderation hanno una base più solida. Le loro basi di utenti sono preparate, moderatori e utenti si fidano l’uno dell’altro e, pertanto, entrambi si sentono liberi di parlare apertamente e onestamente. E, dato l’uso diffuso della shadow moderation, è ora più importante che mai sostenere vocalmente la moderazione trasparente.

Appendice

Un uso della shadow moderation su Twitter, non ancora segnalato, potrebbe essere quando i Tweet vengono automaticamente nascosti in base a menzioni di determinati link. L’ho scoperto quando ho condiviso un link al mio nuovo blog per il quale avevo acquistato un dominio economico da 2 dollari all’anno con l’estensione .win. Dopo averlo condiviso tramite Twitter, ho notato che i miei tweet apparivano a ME ma NON agli altri. Ad esempio, questo tweet1 non mostra la risposta mia, anche quando si fa clic sul pulsante “Mostra risposte aggiuntive”. Per vedere la mia risposta, è necessario accedere direttamente al link1. Effettivamente, quella risposta non è visibile a nessuno che non mi conosca già, e il sistema nasconde quel fatto a me mentre sono loggato.

* L’unica circostanza in cui penso che la censura diffusa sia utile è quando la società ha dimenticato i suoi danni. In quel caso, inevitabilmente ritorna, anche solo per ricordarci ancora una volta i suoi effetti deleteri.

20 Mi Piace

Molto interessante, grazie.

Si potrebbe facilmente sostenere che c’è un altro livello, motori di ricerca come Google!

6 Mi Piace

Lettura molto interessante. Tuttavia, mi chiedo se ci sia un’utilità per i shadowban in Discourse.

Sì, esiste un plugin shadowban ma è usato raramente. Ha una (1) stella su Github e le statistiche che abbiamo all’interno di Communiteq rivelano che la percentuale di forum Discourse che lo utilizzano attivamente è inferiore allo 0,5%.

Quindi, perché l’adozione dello shadowbanning sulla piattaforma Discourse è così bassa? Non è perché gli shadowban siano cattivi (cosa che sono), ha un’altra ragione. Da un punto di vista tecnico, gli shadowban sono molto facili da rilevare su Discourse. Basta visitare il forum senza accedere o utilizzando un account diverso e notare le differenze. E ciò è possibile perché Discourse non è una piattaforma di social media che utilizza un algoritmo che decide cosa vedrai e in quale ordine ti viene presentato. In Discourse, il contenuto che ti viene mostrato non dipende da ciò che hai fatto / visto / letto o scritto in precedenza. E se non c’è un algoritmo, non c’è posto per minimizzare determinati contenuti. C’è solo l’opzione di nasconderlo completamente invece di mostrarlo.

Non supporto nemmeno tutte le forme di moderazione trasparente, perché la moderazione trasparente può ancora essere soggettiva.

Oltre al mio lavoro nell’ecosistema Discourse, sono anche fondatore di un’azienda che combatte la disinformazione online e l’incitamento all’odio. Durante le conferenze, mi vengono spesso chiesti esempi di interferenze straniere nei processi democratici di questo paese (i Paesi Bassi), dove le persone che fanno la domanda si aspettano sempre che io racconti qualche storia su troll russi. Ma in realtà, i principali esempi di interferenza nei processi democratici da parte di attori stranieri che abbiamo visto in questo paese, sono piattaforme di social media come Twitter o YouTube che bannano o shadowbannano politici olandesi, senza alcun tipo di revisione da parte di un tribunale o di un altro organo indipendente.

E questo è un male.

13 Mi Piace

Ciao Richard,

Grazie per il tuo contributo. Non sono del tutto convinto che l’uso sia limitato su Discourse. Non abbiamo modo di verificare il codice personalizzato delle installazioni, ecc. senza prima creare e condividere strumenti che consentano agli utenti di esaminare autonomamente il comportamento di tali sistemi. Anche se l’uso fosse limitato, è comunque importante prendere una posizione pubblica perché l’uso altrove è iniziato in piccolo ed è ora diffuso. Dovrò dissentire dal tuo commento qui,

Allora perché l’adozione dello shadowbanning all’interno della piattaforma Discourse è così bassa? Non è perché gli shadowban sono cattivi (cosa che sono), ha un’altra ragione. Da un punto di vista tecnico, gli shadowban sono molto facili da rilevare su Discourse. Basta visitare il forum senza effettuare l’accesso o utilizzando un account diverso e notare le differenze.

Sebbene ciò sia tecnicamente possibile, la maggior parte degli utenti non ci penserà. Dopotutto, la rimozione dei commenti di Reddit funziona allo stesso modo, come puoi vedere commentando su r/CantSayAnything. Il 99% dei Redditor non ha idea che funzioni in questo modo. Ho avuto un account su Reddit per sette anni prima di scoprire il suo uso diffuso della moderazione ombra. Avevo anche visitato come lettore per circa tre anni prima di allora. E anche ora che Reveddit esiste da quattro anni, stimerei che meno dell’1% dei Redditor capisca come funzionano le rimozioni dei commenti. Infine, anche dopo aver creato Reveddit, è stato solo quattro anni dopo, quest’estate, che ho capito veramente che esistevano strumenti di moderazione ombra ed erano ampiamente utilizzati su tutte le principali piattaforme.

Concordo con il tuo punto sul fatto che la manipolazione dei feed algoritmici sia più difficile da rilevare. E come dici tu, i contenuti non filtrati algoritmicamente sono verificabili. Tuttavia, le sezioni di commenti ordinate per data rientrano sempre in questa categoria, e credo che ogni sito di social media importante le abbia. Queste sono quindi verificabili, a condizione che qualcuno crei strumenti per farlo, perché ancora una volta gli utenti non pensano di controllare da soli. Anche se controlli lo stato di un commento una volta, è possibile che un moderatore lo rimuova silenziosamente un’ora dopo, invalidando così il tuo controllo! È per questo che ho creato Reveddit Real-Time1, un’estensione che interroga il sistema per le rimozioni ombra e ti avvisa quando ciò accade.

Tali strumenti dovrebbero essere creati per tutte le piattaforme finché non ci sarà sufficiente fiducia tra gli utenti e i siti di social media che la moderazione ombra sia nel passato. La moderazione ombra è così diffusa che penso che tutti dovrebbero presumere che venga utilizzata da qualsiasi sistema stiano utilizzando per comunicare, a meno che il sistema non neghi espressamente la pratica. E anche in quel caso è necessario prestare attenzione alle loro parole, come la scelta di Twitter di usare pubblicamente la parola “rank”1 piuttosto che descrittori interni come “de-amplify”1. YouTube, d’altra parte, riconosce più apertamente che “ridurrà”1 i contenuti.

la moderazione trasparente può ancora essere soggettiva.

Puoi approfondire questo aspetto?

Oltre al mio lavoro nell’ecosistema Discourse, sono anche fondatore di un’azienda che combatte la disinformazione e l’incitamento all’odio online.

Interessante, puoi dire quale? E i discorsi che menzioni sono disponibili online? Concordo sul fatto che anche i ban di YouTube siano preoccupanti. Sospetto che il loro fossato, come quello di altri, sia stato costruito utilizzando strumenti di moderazione ombra che “riducono” o “rimuovono in ombra”. Dovremmo quindi concentrarci su questo prima.

Penso che la vera censura della nostra epoca sia la moderazione ombra. La moderazione trasparente può essere censura se non è “neutrale dal punto di vista del punto di vista”, ma è più spesso simile all’editing. Un’ultima argomentazione contro la vera censura proviene da Bob Corn-Revere, un importante avvocato del primo emendamento: “il censore non ha mai il diritto morale”.1

3 Mi Piace

Concordo que a moderação deva ser transparente, mas consigo ver como o banimento oculto seria tentador para lidar com trolls que não desaparecem. Quais são algumas formas alternativas de lidar com alguém que continua a criar novas contas depois de ter sido banido pela equipa de um site?

8 Mi Piace

In qualità di uno dei fondatori del secondo provider di hosting gestito di Discourse più grande, ho quel modo - almeno per quanto riguarda le istanze che ospitiamo - quindi sono nella fortunata posizione di poter eseguire alcuni calcoli statisticamente significativi qui. E se ci fosse una funzionalità di shadowban diffusa che - in qualche modo magico - sarebbe completamente disgiunta dalle “nostre” istanze, non ne avrei nemmeno sentito parlare negli ultimi 9 anni. Questo è, beh, altamente improbabile.

Il tuo post sembra sfumare la distinzione tra shadowbanning (dove tutti i post di determinati utenti vengono soppressi) e shadow moderation (riguardo ai singoli post), ma penso che questa distinzione sia importante.

Oltre alle differenze tecniche per cui lo shadowbanning è molto più facile da rilevare (se riesci a trovare un singolo post di un certo utente, non è shadowbannato), lo shadowbanning è molto più malvagio, poiché la libertà di parola di qualcuno viene limitata in base alle cose che ha detto in precedenza, mentre la shadow moderation sopprime il loro discorso attuale.

Penso che il problema principale della shadow moderation sia che è soggettiva, non che sia silenziosa. Quando le persone vengono informate sulla rimozione di contenuti, ciò può anche portare a comportamenti indesiderati (ad esempio, ripubblicazione o trolling). Un esempio è ciò che è accaduto su LinkedIn durante il Covid-19. Notificano la cancellazione dei contenuti il più delle volte, quindi le persone hanno iniziato a scattare foto dei loro post rimossi e a ripubblicarli. Ciò non solo ha attirato maggiore attenzione sui loro post (che sono rimasti sotto traccia perché LinkedIn apparentemente non può fare l’elaborazione da immagine a testo su quelle foto), ma ha anche alimentato le teorie del complotto del “grande reset” secondo cui c’era un potere più grande che stava limitando la loro libertà di parola.

Bene, questo:

5 Mi Piace

Ciao Simon, il contesto è molto importante. Hai esempi specifici? In generale, suggerirei di immaginare che questo onere non debba ricadere interamente sulle spalle dei content manager. Coinvolgi la tua community e spiega il dilemma. Forse può essere risolto senza un divieto. Se pensi che sia ingenuo, allora è necessario un maggiore contesto per discuterne.

2 Mi Piace

Richard, grazie per questi chiarimenti. Il dato che fornisci è utile da sapere. Penso che possiamo concordare sul fatto che la moderazione ombra non sembri essere un grosso problema su Discourse oggi.

Personalmente, non dichiarerò ancora nessun "tutto è risolto" qui, per le ragioni già esposte e perché anche l’uso da parte di un singolo forum può avere un grande impatto. Ad esempio, certi gruppi su Reddit fanno un uso più intensivo della moderazione ombra rispetto ad altri. Gli utenti possono essere indotti a fidarsi del sistema nel suo complesso sulla base del fatto che certi gruppi li informano delle rimozioni. Quindi pensano che succeda sempre. E ciò che spesso accade dopo è che i gruppi più manipolatori vengono considerati più affidabili proprio perché non dicono agli utenti quando rimuovono contenuti. Col tempo, questo ha portato più gruppi a optare per la rimozione senza notifica. Reveddit aiuta a contrastare questo in qualche modo, ma rimane solo un cerotto senza una consapevolezza più ampia.

Non mi è difficile immaginare un’installazione di Discourse che non eserciti una moderazione trasparente e che quindi sfrutti gli utenti allo stesso modo. Concordo sul fatto che l’uso diffuso della moderazione ombra altrove non significa che il suo uso sia diffuso su Discourse. Considero il plugin pubblicato e le richieste di correzione di bug come prova che la moderazione ombra sta almeno bussando alla porta di Discourse.

A parte le differenze tecniche in cui lo shadowbanning è molto più facile da rilevare (se riesci a trovare un singolo post di un certo utente, non è shadowbannato),

Dal punto di vista dell’utente, questo test non funziona. I sistemi che moderano selettivamente i contenuti in modo ombra non pubblicizzano il fatto che lo fanno. Inoltre, "più facile" non significa "facile". Questo utente1 è stato shadowbannato a livello di sito da Reddit per tre anni prima di scoprirlo, e molti altri utenti vengono regolarmente shadowbannati dai subreddit, come documentato ad esempio in r/LibertarianUncensored1.

Reddit ora ha anche qualcosa chiamato Crowd Control che consente ai moderatori dei subreddit di attivare un interruttore per rimuovere automaticamente tutti i commenti dei non abbonati regolari senza notifica. In un singolo thread di r/conservative1, 4.000 commenti, oltre il 50%, sono stati automaticamente rimossi in modo ombra. Nessuno di questi utenti ha idea che la loro partecipazione a quel gruppo sia spesso silenziata.

lo shadowbanning è molto più malvagio, poiché la libertà di parola di qualcuno viene limitata in base alle cose che ha detto in precedenza, mentre la moderazione ombra sopprime il suo discorso attuale.

Lo shadowbanning [dei contenuti di un intero account] è una forma di moderazione ombra. Il termine "invisibilità selettiva"1 potrebbe descrivere meglio ciò che intendevi per "moderazione ombra". Entrambi, a mio parere, possono essere ugualmente dannosi a causa dell’effetto di assuefazione descritto sopra, e perché l’invisibilità selettiva può ancora essere applicata senza revisione umana dei contenuti moderati. Su Reddit, ciò costituisce la maggior parte delle rimozioni di commenti; i moderatori non li esaminano e li approvano, e immagino che lo stesso valga su altre piattaforme.

Infine, concordo sul fatto che si possa discutere su cosa costituisca censura, e persino su cosa significhi essere completamente trasparenti sulla moderazione. Penso che il punto più saliente qui sia che siamo così lontani dalla moderazione trasparente sui social media, e così lontani dalla consapevolezza pubblica della pervasività della moderazione ombra, che ogni passo in quella direzione è significativo. In altre parole, non lasciare che la perfezione ostacoli ciò che è buono.

5 Mi Piace

Ciao Rob, concordo con @simon sul fatto che ci siano certe istanze in cui il shadowbanning potrebbe essere utile su una base puramente funzionale. Personalmente non voglio addentrarmi nelle questioni morali e filosofiche più profonde di questo argomento, ma ho visto molteplici casi piuttosto chiari. Di solito coinvolgono una persona specifica che l’intero forum conosce come un troll palese, e la persona è stata bannata in più occasioni e continua a tornare sotto diversi nomi utente, e quel tipo di disturbatore usa invariabilmente la rete TOR. Lo stesso vale per gli utenti scontenti che pubblicano furiosi sfoghi profani e insulti terribili e persino immagini oscene disturbanti, o persino minacce fisiche specifiche e mirate. Quindi il tipo di casi a cui mi riferisco sono esempi chiari e inequivocabili di utenti che assolutamente non dovrebbero essere su un forum (o persino liberi per le strade in alcuni casi), e il loro comportamento online viola le norme di praticamente tutte le persone decenti nel mondo. Le shadowban possono almeno guadagnare un po’ di tempo prima che quel tipo di utente se ne accorga e crei un altro account.

6 Mi Piace

Questa è difficile. Non sono nella posizione di fornire esempi, ma il sottotitolo sull’argomento Discourse Shadowban riassume abbastanza bene: “L’ultima risorsa per affrontare i troll che non se ne vanno”. Anche questo:

Il mio approccio alla situazione sarebbe quello di aggiungere una nota all’account dell’utente con Discourse User Notes per avvertire gli altri moderatori del sito sull’utente e assicurarsi che vengano rapidamente bannati per qualsiasi nuova infrazione. Non ho mai incontrato una situazione in cui l’utente alla fine non se ne sia andato.

Penso che dovremmo fare la nostra parte per cercare di rendere il mondo un posto migliore. Il tipo di problema che descrivo qui riguarda utenti che sembrano (dal mio punto di vista) avere problemi di salute mentale. Vorrei sapere come aiutarli a diventare cittadini migliori sia su Internet che nel mondo reale.

6 Mi Piace

Si potrebbe facilmente sostenere che c’è un altro livello, motori di ricerca come Google!

Giusto. Sono più preoccupato per le rimozioni nascoste nelle sezioni di commenti ordinate per data. Lì, il danno è chiaro ed è relativamente facile costruire strumenti che mostrino dove sta accadendo. Il trucco, penso, è far crescere il supporto per quel movimento. Non esiste ancora. La gente non sa nemmeno che sta succedendo. E, nella misura in cui le persone dicono ancora “abbiamo bisogno di tali strumenti per questo peggior scenario”, penso che sia riduttivo perché i danni di questa nuova forma di censura nascosta vengono messi da parte o mai presi in considerazione. Tuttavia, potrebbe essere una conversazione che deve avvenire se vogliamo aumentare il supporto per avere conversazioni moderatamente trasparenti.

Hai assolutamente ragione a dire che gli algoritmi opachi possono anche moderare nascostamente. Ho sentito voci di ricerche che sostengono che Google manipola ciò che appare nei suoi suggerimenti di ricerca mentre digiti, tuttavia non ho una fonte su questo, quindi rimane una voce per me. Si potrebbe anche distorcere intenzionalmente i dati di addestramento, o non notare i pregiudizi esistenti nei dati. Oppure, si potrebbe sostenere che ciò che costituisce un pregiudizio è soggettivo poiché il mondo digitale non rifletterà mai precisamente il mondo reale.

Quelle sono tutte discussioni più complesse, molte delle quali avverranno solo a porte chiuse. Penso che sarebbero più probabili se ci fosse una maggiore consapevolezza della prevalenza della moderazione nascosta nelle sezioni di commenti, e quindi un maggiore supporto per non farlo; cioè, supporto per la moderazione trasparente. Non sono legato a questi termini, comunque, quindi se hai idee migliori, fammelo sapere.

1 Mi Piace

Ciao Rahim,

Sono lieto che tu ti sia unito alla discussione.

Personalmente non voglio addentrarmi nelle questioni morali e filosofiche più profonde di questo argomento, ma ho visto molteplici casi piuttosto chiari.

Puoi citare alcuni di questi esempi? Senza di essi, questa è effettivamente più una discussione teorica che empirica. Nota che alcuni contenuti sono illegali1. Tali contenuti dovrebbero essere segnalati alle autorità. Presumo che tu stia parlando di discorsi protetti dalla costituzione che altrimenti causano danni agli utenti.

Ho collegato diversi casi che dimostrano come l’uso continuato della moderazione ombra sia dannoso e non ho ancora visto un esempio di un troll che (a) posta costantemente discorsi borderline protetti dalla costituzione e (b) non se ne va dopo essere stato avvertito. Forse perché è raro.

Lo scenario ipotetico peggiore viene sempre utilizzato per giustificare il consolidamento del potere. Su Reddit, alcuni gruppi come r/news hanno un moderatore ogni un milione di iscritti che hanno account. Il numero di lettori probabilmente estende quel rapporto almeno di dieci volte. Ciò è notevole se si considera che i moderatori lì sono volontari anonimi e non addestrati. Decidono cosa centinaia di milioni di persone vedranno nelle sezioni dei commenti senza la supervisione nemmeno degli autori di tali commenti.

Di solito coinvolge una persona specifica che l’intero forum conosce come un troll lampante, e la persona è stata bannata in più occasioni e continua a tornare sotto diversi nomi utente, e quel tipo di disturbatore usa invariabilmente la rete TOR. Lo stesso vale per gli utenti scontenti che pubblicano tirate profane furiose e insulti terribili e persino immagini oscene disturbanti, o persino minacce fisiche specifiche mirate.

Ciò giustifica l’implementazione di una forma di censura di cui la base utenti non è ritenuta degna di essere a conoscenza?

Qui c’è un caso in cui ho interagito con qualcuno che cercava una rissa. Puoi vedere dalla cronologia dei commenti di BillHicksScream1 che dicono cose provocatorie tutto il tempo. Eppure, non hanno avuto nulla da dire in risposta al mio ultimo commento.

In altri casi, dare l’ultima parola agli utenti indisciplinati può essere la migliore strategia. Devi solo apparire ragionevole di fronte al dogma, come dice Jonathan Rauch1. Non è necessario convincere i troll/estremisti che si sbagliano. Si stancheranno da soli.

Le shadowban possono almeno guadagnare un po’ di tempo prima che quel tipo di utente se ne accorga e crei un altro account.

E poi? Cosa succede quando gli utenti inevitabilmente mettono insieme due e due e capiscono che le loro discussioni vengono manipolate perché l’accaparramento del potere è stato troppo grande e troppo allettante per resistere a qualsiasi individuo? I resistenti che non hanno integrato la moderazione ombra nel software, come il fondatore di Discourse Jeff Atwood, sono l’eccezione, non la regola.

C’è un cambiamento culturale1 in atto nella tecnologia in questo momento. Interi team vengono licenziati e gli utenti scoprono la moderazione ombra. La tecnologia onesta è la via da seguire. Guarda come reagiscono le persone quando scoprono cosa sta succedendo1,

…qual è la presunta logica per farti pensare che un post rimosso sia ancora attivo e visibile?

…Quindi i mod cancellano i commenti, ma li lasciano visibili allo scrittore. Quanto sinistro.

…la cosa sconvolgente è che non ricevi alcuna notifica e per te il commento appare ancora attivo. Il che significa che i mod possono stabilire la narrativa che vogliono senza rispondere a nessuno.

…Wow. Possono rimuovere il tuo commento e questo ti appare ancora come se non fosse stato rimosso?

…Wow. Sono qui da 12 anni e ho sempre pensato che fosse un posto fantastico dove le persone potevano condividere apertamente idee. A quanto pare è più censurato della Cina. Verrò rimosso in 3, 2, 1…

Quindi, si ritorce contro. Nella mente degli utenti, ora sei il censore che dice: “gli utenti non dovrebbero vedere questo, solo io [il moderatore] ho la forza di sopportarlo”.

I censori, per inciso, non si definiscono mai censori, come ho sottolineato qui1. Questo perché la parola “censore” è considerata una cosa negativa fin dai tempi di Anthony Comstock. Quindi viene spesso riformulata con termini come invisibilità selettiva1, filtraggio della visibilità1, ranking1, visibile a sé stessi1, riduzione1, deboosting1, o mascherare una bavaglio1. Queste sono tutte frasi che le piattaforme e i sostenitori della moderazione ombra usano per evitare di dire la brutta parola, “censura”. L’elenco è infinito perché lo scopo è mascherare, non rivelare, ciò che stanno facendo.

Dici di non volere una discussione filosofica, eppure quando si ha a che fare con qualcuno con cui non si è d’accordo, pur rispettando le libertà individuali, può essere utile pensare come uno scienziato piuttosto che come un avvocato o un soldato ed essere curiosi di capire da dove viene quella persona. Greg Lukianoff chiama questo “Il progetto della conoscenza umana” [[clip video](https://youtu.be/yJnxQ7YNWTM?t=4867) [[articolo](https://www.thefire.org/news/blogs/eternally-radical-idea/13-important-points-campus-k-12-critical-race-theory-debate)].

In breve, i danni causati dalla censura dovrebbero essere presi in considerazione. Una visione miope dei danni causati dai troll senza alcuna considerazione per i danni della vera censura di oggi non fa progredire le conversazioni sulla moderazione dei contenuti perché si sta guardando solo una parte del quadro. La moderazione ombra rimane nascosta a quasi il 100% del pubblico.

Dato il fatto che così tanti utenti sono impediti dall’aiutare a mediare le discussioni quando avviene la moderazione ombra, è ragionevole coinvolgerli nell’assistenza. Nella misura in cui non si tenta di coinvolgere la comunità attraverso una moderazione trasparente e un contro-discorso, lo definirei autoritarismo online, una mentalità divina in cui i moderatori fingono di sapere meglio di tutti gli altri. E in definitiva, questo causerà più problemi agli amministratori di quanto ne valga la pena, come penso si possa vedere dal periodico tumulto affrontato da Twitter, Facebook e Reddit. Gli utenti in quegli spazi sono lì da abbastanza tempo da iniziare a scoprire la manipolazione, e vogliono qualcosa di meglio.

2 Mi Piace

Il mio approccio alla situazione sarebbe quello di aggiungere una nota all’account dell’utente con Discourse User Notes per avvisare gli altri moderatori del sito riguardo all’utente e assicurarmi che vengano bannati rapidamente per qualsiasi nuova infrazione. Non mi sono mai imbattuto in una situazione in cui l’utente non se ne sia andato alla fine.

Questa è stata anche la mia esperienza, ovvero che la moderazione trasparente aiuta le persone a comprendere le regole e a decidere se vogliono seguirle o conversare altrove. Lo studio che ho citato riguardo al carico di lavoro dei moderatori lo conferma.

Penso che dovremmo fare la nostra parte per cercare di rendere il mondo un posto migliore. Il tipo di problema che sto descrivendo qui riguarda gli utenti che sembrano (dal mio punto di vista) avere problemi di salute mentale. Vorrei sapere come aiutarli a diventare cittadini migliori sia su Internet che nel mondo reale.

Sembra che tu parta da una buona posizione, Simon! Penso che l’individuo che “non se ne va” dopo essere stato invitato ad andarsene sia molto raro, ma se dovesse succedere, direi che merita lo stesso rispetto che diamo a tutti gli altri per quanto riguarda il “diritto a un processo” di sorta. Un processo completo non avverrà per ogni infrazione online, quindi il compromesso che propongo è che tutti gli utenti meritano di sapere quando sono stati moderati. Togliere questo è come togliere il potere giudiziario. Per quanto riguarda la salute mentale, anche gli psichiatri non fanno tali valutazioni senza esaminare personalmente l’individuo, quindi non penso che dovremmo farlo nemmeno noi. “Sono pazzi” diventerà inevitabilmente la scusa per togliere il diritto a un processo usando la moderazione ombra.

Se il contenuto è illegale, qualcosa che “nel contesto, causa direttamente un danno grave e imminente” 1 (una definizione di Nadine Strossen), allora dovrebbe essere segnalato alle autorità.

Infine, se pensi che l’autolesionismo sia un fattore, potresti raccomandare una linea di assistenza per le crisi. Teoricamente parlando, è possibile che la rimozione ombra di commenti da parte di utenti che promuovono la violenza verso se stessi o gli altri possa renderli più propensi ad agire secondo le loro errate convinzioni.

Considera un gruppo che consideri odioso. Potrebbero comunque rimuovere gli appelli alla violenza reale. Ma se i moderatori lo fanno segretamente, all’individuo violento non viene dato alcun segnale che le sue opinioni non fossero in linea con la comunità. Chi può dire se questo lo rende più o meno propenso ad agire? Potrebbe percepire la mancanza di una contro-risposta come approvazione tacita.

La mia argomentazione è la stessa del giudice Brandeis, che la luce del sole è il miglior disinfettante 1 e che una soluzione richiede il coinvolgimento della comunità. Invece di rimuovere ombra i commenti, anche quelli odiosi, puoi dare loro un segnale riguardo alle rimozioni. Quel segnale diventa un’opportunità per loro di beneficiare di qualche altra interazione, sia essa dalla tua comunità, da un’altra comunità o dalle forze dell’ordine. In questo modo, potresti offrire alle frange della società la possibilità di sentirsi meno isolate, rendendo così te stesso e il mondo un posto più sicuro.

In generale, cerco di seguire i consigli di Jonathan Rauch. Lui dice,

“La persona con cui stai parlando non è la persona con cui stai parlando direttamente…”

Fondamentalmente, non devi convincere tutti che hai ragione. È sufficiente sembrare ragionevoli di fronte a qualcun altro che è dogmatico o addirittura censorio. Sebbene sia vero che qualcuno possa comportarsi legalmente in modo censorio in una conversazione tentando di zittirti con parole odiose, sembrerà anche un idiota a patto che tu gli dia la giusta libertà. Qualsiasi percezione che questo non funzioni online potrebbe essere dovuta all’uso diffuso di rimozioni ombra. Quando tenti di coinvolgere un gruppo “odioso” nel loro spazio, tu potresti essere moderato ombra a tua insaputa!

Nello stesso discorso, Rauch dice, “Gli odiatori, alla fine, seppelliscono se stessi se li lasci parlare.” E lui saprebbe cosa funziona. Essendo un uomo gay cresciuto negli anni '60, descritto qui 1, Rauch è apparentemente attivo nel movimento per i diritti gay da decenni con probabilmente un buon successo. Quindi vale la pena ascoltarlo sull’argomento della libertà di parola, indipendentemente dai tuoi sentimenti sull’omosessualità o sul matrimonio gay. Dall’Inquisizione spagnola, ad Anthony Comstock, al comunismo e al maccartismo, al PMRC di Tipper Gore, l’attuale era dei social media non è la prima volta che la libertà di parola è stata messa in discussione, e non sarà l’ultima.

Ho trovato la mentalità di Rauch estremamente efficace nel moderare il mio coinvolgimento e nel permettere agli altri di esprimere le proprie opinioni pur facendo valere il mio punto di vista. Scopro continuamente nuovi modi per accettare che (a) posso cambiare solo me stesso e (b) che questo è sufficiente per avere un impatto positivo nel mondo.

4 Mi Piace

Forse ci sono due problemi distinti qui. Il primo problema sono i moderatori che fanno del loro meglio per affrontare comportamenti problematici. Qui è stato suggerito il shadow banning di utenti offensivi come approccio: Discourse Shadowban. Posso capire la motivazione, ma non credo che otterrà molta trazione come tecnica di moderazione: se un utente è così persistente, è solo un ritardo di un conflitto inevitabile.

Il secondo problema è ciò che sta accadendo su altre piattaforme in cui la portata dei post di alcuni utenti è limitata, senza dare agli utenti alcuna indicazione su ciò che sta accadendo. Ciò che è degno di nota è che questi utenti non hanno violato i TOS del servizio. Sarebbe tecnicamente possibile creare un plugin Discourse che implementi qualcosa di simile, ma a meno che il sito non fosse estremamente attivo, penso che verrebbe rapidamente scoperto. In realtà penso che Discourse e altre piattaforme comunitarie decentralizzate siano l’antidoto a questo problema. Come esempio estremo, se qualcuno vuole creare una comunità in cui dire “la terra gira intorno al sole” è considerato una disinformazione pericolosa, è libero di farlo. Le persone con una visione del mondo eliocentrica possono semplicemente trovare un’altra comunità a cui unirsi.

Un ulteriore problema sarebbe se fosse impossibile trovare un hosting o un processore di pagamento per una comunità che andasse contro la narrativa dominante su una particolare questione. Oltre a cercare di promuovere i valori della curiosità intellettuale e della diversità, non ho grandi suggerimenti su come affrontare questo problema.

Forse, ma anche trovare soluzioni a problemi reali è una buona strategia aziendale. Come aiutare le persone con il loro comportamento da troll, invece di bandirli semplicemente, sembra un problema irrisolto. Posso immaginare Discourse che fornisce alcuni strumenti per aiutare le comunità con questo. Potrebbe anche essere esternalizzato a un servizio esterno composto da terapisti qualificati.

5 Mi Piace

Simon, ti ringrazio per aver dedicato del tempo a rispondermi. Capisco che non sei persuaso dalla mia argomentazione che i troll a volte possano essere lasciati soli (cioè, tramite una moderazione trasparente invece di una moderazione ombra), né sembri persuaso che la moderazione ombra possa tentare Discourse con un aumento di utilizzo. Forse è vero, forse no. Penso che il tempo lo dirà, ma non necessariamente presto. Sono fortemente in disaccordo sul fatto che la moderazione ombra venga “scoperta rapidamente”. Concordo sul fatto che promuovere la curiosità intellettuale e la diversità non debba essere sottovalutato, e che una buona strategia aziendale svolga un ruolo fondamentale.

2 Mi Piace

Collegamento incrociato alla posizione ufficiale di Discourse qui

12 Mi Piace

Forse sono stato troppo cauto nell’esprimere i miei pensieri qui:

Penso che il shadow banning sia un’idea terribile. Detto questo, ho molte preoccupazioni sul futuro di internet, ma per quanto riguarda Discourse, non sono preoccupato che il shadow banning o la manipolazione surrettizia dei contenuti di un sito sia qualcosa che prenderà piede. In primo luogo, come notato sopra, la funzionalità non esiste nel codice principale di Discourse e il team non ha in programma di sviluppare plugin per essa. In secondo luogo, non vedo un caso d’uso valido per aggiungere questo tipo di funzionalità a un sito Discourse - non riesco a immaginare un caso in cui la sua implementazione andrebbe a beneficio dei proprietari di un sito.

Se c’è un’altra cosa che potrei promuovere, sarebbe il valore del disaccordo. Promuovere il disaccordo, anziché l’accordo, è il modo più rapido per raccogliere tutti i punti di vista disponibili da un gruppo di persone.

5 Mi Piace

So che ci sono situazioni in cui è necessario un plugin/funzionalità di shadowban.

Abbiamo un programma a pagamento e il 99% dei nostri studenti lo adora. Poi ci sono delle mele marce che entrano nei forum e “avvelenano” gli altri con negatività. Ora queste persone hanno pagato per qualcosa, quindi la mela marcia diffonde FUD (Fear, Uncertainty, Doubt) e arrivano nuove persone che vedono il FUD, quindi chiedono un rimborso.
Anche la mela marcia ha pagato, quindi non vogliamo che rimborsi nemmeno lei, perché di solito sono questi tipi di persone che ci succhiano la maggior parte del nostro tempo.

Il mio staff passa ore e ore a gestire le mele marce e a impedire loro di avvelenare le mele buone.

Quindi sì… vogliamo solo fare uno shadowban alle mele marce in modo che il team di supporto possa rispondere ai loro post e alle loro risposte e loro pensino di essere “dentro” e la vita sia allegra e felice per il nostro team di supporto e i nostri fantastici utenti non vengano avvelenati.

Prima che tu dica “Basta rimborsare le mele marce”… no, non è questa la risposta.

Abbiamo bisogno di una funzionalità di shadowban per argomenti e risposte e per utente se lo mettiamo permanentemente in shadowban.

C’è un caso d’uso legittimo per questa funzionalità.

2 Mi Piace

Per curiosità, perché rimuovere i membri indesiderabili dalla tua community non sarebbe la risposta in questa situazione?

Non sarebbe anche un problema maggiore se/quando scoprissero che stavano pagando per qualcosa che non stavano ottenendo appieno? (cioè, la partecipazione alla tua community)

5 Mi Piace

Ti rimborserebbero. Ottengono molto di più della sola community, però. I forum sono solo una piccola parte. Software, strumenti, formazione. Quello che non possono fare è spaventare gli altri nella community e far sì che altri dubitino o vogliano essere rimborsati. Dopo aver fatto questo per 20 anni, sappiamo che c’è una certa percentuale di persone che saranno negative su tutto nella vita, quindi dobbiamo proteggere i nostri clienti paganti che stanno agendo.

Se fosse solo un forum per cui pagassero, sarebbe diverso… ma questo è un prodotto da 2.000 dollari, quindi dobbiamo proteggere i nostri membri paganti dai “negativi cronici”.

2 Mi Piace