Gli shadowban fanno male al dibattito, ed ecco perché

In inglese, chiunque può censurare, privato o pubblico. Diciamo anche che le persone possono “autocensurarsi”.

Sostengo qui che la vera censura dell’era digitale è la moderazione nell’ombra. Sentiti libero di commentare lì o qui se sei d’accordo o in disaccordo.

1 Mi Piace

Sì e no.

  • Queste piattaforme sono state sottoposte a un forte scrutinio per non aver rimosso determinati post.
  • D’altra parte, personalmente non sono molto contento del fatto che un’azienda o una persona straniera sia in grado di influenzare la nostra democrazia rimuovendo post secondo le proprie regole.

Quindi, immagino che questo sarebbe un buon compromesso. Meglio di qualsiasi altra opzione.

1 Mi Piace

Penso che siamo d’accordo. Sostengo il diritto delle piattaforme di rimuovere ciò che vogliono, anche i post degli utenti che si lamentano di contenuti censurati. Tuttavia, dovrebbero informare gli autori dei post rimossi.

Sì, a livello nazionale, il rischio condiviso è ovvio. Ma è evidente anche a livello locale. Immagina che il tuo condominio abbia un gruppo di chat e tu scriva un commento critico nei confronti della sua leadership o delle sue quote. Se il leader di quel gruppo può eliminare segretamente il tuo commento, può poi condurre una campagna contro di te. E le loro critiche nei tuoi confronti sembreranno precedere le tue critiche nei loro confronti, facendoti apparire come il bambino. Ha senso?

Il punto è che non vuoi questo tipo di moderazione dei contenuti da nessuna parte, né nei gruppi di comunità, né nei gruppi scolastici, e soprattutto non sulle piattaforme globali. Eppure questa è la nostra realtà attuale. E nonostante le diffuse preoccupazioni sui social media, non sono ancora riuscito a convincere alcuna organizzazione consolidata per i diritti civili o la libertà di parola a esprimersi pubblicamente contro l’uso della moderazione ombra.

Questo è eccessivamente semplicistico, ma immagino due gruppi, tecnologi ed esperti di libertà di parola, che detengono ciascuno competenze importanti, ma ciascuno manca della competenza dell’altro.

(1) I tecnologi credono erroneamente che la censura sia il modo giusto per affrontare i troll.

(2) Gli esperti di libertà di parola credono erroneamente che i ban ombra siano necessari per affrontare i bot.

In qualche modo il divario tra i due deve essere colmato in modo che possano beneficiare della competenza reciproca.

1 Mi Piace

Mi asterrò perché poi dovremo iniziare a tracciare linee se la disinformazione e le fantasie delle fabbriche di troll dovrebbero essere permesse in nome della libertà di parola. E poi ci allontaneremo fortemente dallo scopo di questa piattaforma, ovvero, fuori tema.

1 Mi Piace

Nessun problema. “Fabbriche di troll” suona come un buon termine per le piattaforme di social media che manipolano segretamente le conversazioni degli altri. :laughing:

Questo è uno scenario interessante che descrivi qui. Si tratta di manipolazione sociale ingannevole, che può creare ogni sorta di problemi e incomprensioni.

Non sono divertito. In parte perché il nostro confine orientale sarà chiuso tra tre ore. E una grande fabbrica di troll ha appena detto su X che succede perché la NATO ha preso il controllo della Finlandia e sta pianificando un attacco a sorpresa. Ma ehi, questo non dovrebbe essere censurato in nome della libertà di parola.

Fabbrica di troll è un termine valido. Non lo sapevi?

E ho finito con questo argomento.

1 Mi Piace

Mi scuso per la battuta, ma non ho detto che nulla dovrebbe essere censurato. Ho detto che la censura segreta dà potere alle fattorie di troll al punto da controllare le piattaforme, che sembra essere ciò che stai descrivendo. Abbiamo bisogno di trasparenza per mettere tutti sulla stessa pagina.

1 Mi Piace

Sì, innumerevoli manipolazioni sono rese possibili quando si ammette anche un uso “eccezionale” dei ban ombra. Mi sono imbattuto in innumerevoli persone intelligenti che pensano che l’uso eccezionale della segretezza contro gli alleati sia accettabile. Per essere chiari, questa è la modalità di pensiero predominante nel mondo della moderazione dei contenuti all’interno delle società di social media, tra gli accademici e persino in alcune importanti istituzioni che affermano di sostenere la libertà di parola.

Le persone hanno anche il diritto alla privacy e alla libertà di parola in molti paesi.

Per gli articoli accademici sottoposti a revisione paritaria e le pubblicazioni a stampa legittime, questi devono essere revisionati prima della pubblicazione, il che non significa che le persone non abbiano ancora il diritto di esprimersi liberamente.

Tutto quello che sto dicendo è che ci sono persone che studiano la moderazione dei contenuti, eppure non studiano l’impatto della moderazione ombra o non divulgata. Questa è un’enorme lacuna nella ricerca.

Hai ragione a sottolineare che le persone sono libere di studiare ciò che desiderano. Secondo me, la mancanza di ricerca sulla moderazione ombra è una clamorosa omissione e un’enorme opportunità per qualsiasi ricercatore di cogliere.

1 Mi Piace

Certo, c’è un’opportunità di ricerca, ma se i dati vengono nascosti alla vista del pubblico, gli studi non saranno accurati senza sondaggi per le persone che riportano la loro esperienza con i ban ombra, ma come hai menzionato, potrebbero nemmeno sapere che sta succedendo.

Comunque, questo andrebbe oltre lo scopo di questo sito di supporto, a meno che non sia focalizzato specificamente sull’app Discourse.

Essendo open-source per siti indipendenti, non rientra nella stessa categoria di altre app a sistema chiuso.

2 Mi Piace

Non necessariamente. Un ricercatore potrebbe creare strumenti per tracciare ciò che è stato rimosso o alterato. Ciò è già possibile su Reddit, come dimostro con il sito web e l’estensione di Reveddit. In generale, un’estensione dovrebbe sempre essere in grado di tracciare sezioni di commenti ordinati per data e visibili pubblicamente. E i forum pubblici potrebbero essere il luogo in cui si verifica la maggior parte della manipolazione ombra, poiché è il contenuto più visibile e quindi più condiviso.

Inoltre, si potrebbe anche pubblicare ricerche su interviste con persone che pensano alla moderazione ombra su varie piattaforme. Non è necessario sapere cosa è stato rimosso per pubblicare ricerche. Sapere solo come viene fatto è sufficiente per contribuire con qualcosa di interessante.

Questo è un forum di discussione generale sulla moderazione della community. Non penso che sia fuori tema discutere la ricerca sulla moderazione dei contenuti.

Non direi. Qualcuno che gestisce un open-source può aggiungere codice extra che non conosci. Non c’è garanzia che stiano eseguendo il codice originale. Il modo migliore per gestire una community affidabile, secondo me, è dichiarare che non si utilizza la moderazione ombra e essere trasparenti su tutte le azioni di moderazione nei confronti degli autori dei contenuti.

4 Mi Piace

Questo è un buon punto di partenza per fare una dichiarazione.

Wombat dichiara con la presente, sotto pena di falsa testimonianza, di non praticare la moderazione ombra.

2 Mi Piace

Se si può dimostrare che un individuo o un’organizzazione specifica sta facendo ciò, è possibile inviare loro un avviso legale in cui si afferma che in caso contrario si potranno/vorranno intentare azioni legali contro di loro per molestie/disturbo o semplicemente per l’uso di servizi web senza autorizzazione; le persone possono essere perseguite per questo.

1 Mi Piace

Ciò funziona solo se sei nominato, non anonimo. L’anonimato ha il suo posto per contestare le politiche esistenti, ma ci aspettiamo di conoscere i nomi delle persone che gestiscono forum che chiamiamo affidabili.

L’anonimato in questo caso è dovuto alla sospensione dell’account piuttosto che al desiderio dell’autore di rimanere anonimo.

1 Mi Piace

Il nome precedente dell’account era ancora anonimo; non era un nome reale. Inoltre, non sappiamo quale forum gestisce. Se qualcuno vuole fare la dichiarazione che non utilizza la moderazione ombra, dovrebbe dirlo dove la sua identità e affiliazione sono note.

Ciò non significa che tutti gli utenti debbano essere identificati, solo che il nome del gestore del forum dovrebbe essere noto in modo che qualcuno possa essere ritenuto responsabile dell’allineamento o del disallineamento del sito con il suo comportamento dichiarato. Ad esempio, le lettere di Ben Franklin “Mrs. Silence Dogood” furono pubblicate anonimamente con un giornale gestito da suo fratello. Anche The Federalist Papers e Cato’s Letters furono pubblicati anonimamente ma distribuiti da giornali di nota fama. Quindi è ancora possibile consentire l’anonimato e contributi preziosi al dibattito a condizione che qualcuno metta il proprio nome dietro la distribuzione.

3 Mi Piace

L’autore del commento ha chiesto di essere anonimizzato.

A volte è meglio che sospensioni e silenzi non siano visibili agli account non staff. Tuttavia, ogni proprietario della community deve decidere quale filosofia funziona meglio. Per la percezione pubblica

Le sospensioni non anonimizzano gli account, ciò viene eseguito da un team del forum, spesso su richiesta dell’utente.

3 Mi Piace

Ecco il mio ultimo articolo sulle shadow ban. Spero ti piaccia!

Le Shadow Ban Ingannano Solo gli Umani, Non i Bot

Le piattaforme hanno a lungo sostenuto che le shadow ban siano necessarie per affrontare lo spam, ma le shadow ban non ingannano i bot. Sorprendentemente, si scopre che quando le piattaforme parlano di “spam”, si riferiscono a contenuti scritti da te e da me, utenti autentici. Ma non sono state trasparenti su questa definizione.

4 Mi Piace