Gli shadowban fanno male al dibattito, ed ecco perché

Al di là della morale, non vedo come questo possa funzionare in una piccola comunità. Se gli utenti sono un minimo esperti di tecnologia, probabilmente capiranno cosa sta succedendo. Anche solo cercare su Google “Discourse shadowban” li porterà direttamente a questo argomento.

3 Mi Piace

Questo è un riferimento importante!

Molte discussioni interessanti in questo argomento, poche idee principali diverse da considerare.

Con Discourse, la funzionalità di poter silenziare/ignorare qualcuno potrebbe essere considerata una forma di shadowban, ma solo per un individuo e non per tutti gli altri.

Con il sistema di segnalazione dei post, questo non onora necessariamente l’habeas corpus se i moderatori agiscono in risposta alle segnalazioni mentre gli individui che hanno segnalato qualcosa rimangono anonimi. Tuttavia, è a discrezione dei moderatori come vengono esaminate le segnalazioni, idealmente le loro decisioni si basano sulla propria interpretazione di ciò che viene segnalato piuttosto che sulle segnalazioni stesse.

C’è un’opportunità di diplomazia se un membro della comunità sceglie di identificarsi come la persona che ha segnalato qualcosa che è stato pubblicato con una segnalazione, sia perché è fuori tema o inappropriato, sia perché è stato segnalato per qualche altro motivo. Tuttavia, c’è il rischio di un’escalation verso una discussione che potrebbe non portare a nulla oltre a far arrabbiare le persone.

In generale, il motivo per cui le piattaforme potrebbero implementare misure di categoria shadow-ban potrebbe essere per la de-escalation/evitare discussioni/conflitti, il che può sembrare ragionevole dal punto di vista della gestione della community che desidera che tutti vadano d’accordo e concordino su tutto. Tuttavia, quando ci sono disaccordi legittimi su qualcosa, può essere meglio avere spazio affinché le persone esprimano perché/se sono turbate in modo da poter essere meglio comprese.

1 Mi Piace

Ha senso il modo in cui lo descrivi, anche se non tutti potrebbero essere d’accordo.

Per lo sviluppo delle funzionalità che hai pubblicato in Marketplace, è per una soluzione open-source o solo specificamente per il tuo caso d’uso?

1 Mi Piace

Intendi dire che il cliente chiederebbe un rimborso? È improbabile se non sanno di essere censurati. E sarebbe non etico continuare ad accettare i loro soldi censurandoli a loro insaputa.

Se, d’altra parte, intendi che li rimborseresti, allora non c’è bisogno di censurare segretamente quell’utente. Se il loro account è stato cancellato, allora non hanno più accesso al servizio.

1 Mi Piace

Presumi che gli utenti sappiano di essere shadow ban, cosa che, per le mie osservazioni, molto spesso non è così. I commentatori attivi generalmente non sono consapevoli quando vengono shadow ban.

Gli shadow ban sono comunemente usati su molte piattaforme importanti perché gli utenti o non ne sono a conoscenza, o non pensano che succeda a loro. Gli utenti perdono quindi tempo a commentare mentre le piattaforme raccolgono entrate pubblicitarie basate su un numero maggiore di utenti, cosa che ottengono con l’inganno.

3 Mi Piace

Sembrava che intendessero che un rimborso sarebbe stato concesso se qualcuno avesse scoperto di essere stato shadow-banned e avesse richiesto un rimborso a causa di ciò, tuttavia, anche se questa fosse la loro politica, potrebbe esserci un rischio di causa legale se qualcuno avesse pagato per una piattaforma in cui pensava che le persone potessero leggere ciò che pubblicava, ma si scoprisse che era una bugia.

2 Mi Piace

Sembrava che intendessero che un rimborso sarebbe stato concesso se qualcuno avesse scoperto di essere stato shadow-bannato e avesse richiesto un rimborso a causa di ciò, tuttavia, anche se questa fosse la loro politica, potrebbe esserci un rischio di causa legale se qualcuno avesse pagato per una piattaforma dove pensava che le persone potessero leggere ciò che postava, ma si scoprisse che era una bugia.

Sono d’accordo con te sul fatto che ci siano rischi nell’utilizzare gli shadow ban, sia per cause legali che per la credibilità della tua attività.

Ma anche senza una causa legale, l’obiettivo qui era determinare se gli shadow ban avessero un caso d’uso valido, non dimostrare come ingannare i clienti per ottenere i loro soldi. La risposta alla domanda sul caso d’uso valido è ancora più semplice quando si parla di clienti paganti. Semplicemente smetti di accettare i loro soldi, senza bisogno di shadow ban.

4 Mi Piace

Un potenziale caso d’uso per un shadow ban è per/con chiunque la cui intenzione sembri essere solo quella di causare interruzioni in un sito della community, tale che se venissero bannati apertamente vorrebbero creare un nuovo account indipendentemente dal ban.

Se si potesse identificare chi sta cercando di farlo, si potrebbe semplicemente rifiutare di approvare la richiesta di un nuovo account, vero.

Gli shadow ban non sconfiggono i troll, li potenziano. Il numero di persone che impiegherebbero il tempo necessario per aggirare i ban è relativamente piccolo, e quegli attori determinati in malafede sono più propensi a scoprire gli shadow ban rispetto all’utente medio in buona fede. Anche su Reddit, che dispone di tecniche avanzate per identificare account collegati, i moderatori si lamentano ancora regolarmente su r/ModSupport di utenti che aggirano sia i ban che gli shadow ban. Quello che vuoi, quindi, non sono strumenti ingannevoli, vuoi far crescere comunità affidabili. Ci vuole più tempo, ma è meglio che fondare una comunità sulla sfiducia.

Quando introduci gli shadow ban nella tua comunità, la fiducia è fuori gioco. Pertanto, potenzi i troll che non hanno scrupoli a usare l’inganno per “moderare”. I troll, ora al comando, finiscono per emarginare gli utenti in buona fede che non immaginano mai che un forum farebbe loro questo. In altre parole, diventi il troll re. Non vorresti che qualcuno rimuovesse segretamente i tuoi commenti a tua insaputa, quindi non ha senso farlo agli altri, né ha senso dare il potere ad altri di farlo.

Per quanto riguarda i bot o lo spam, gli shadow ban non ingannano i bot, solo i captcha ingannano i bot. Gli shadow ban ingannano solo le persone reali.

3 Mi Piace

Beh, per una community fiduciosa sarebbe ovvio se un account fosse stato silenziato.

Beh, per una community fiduciosa sarebbe ovvio se un account fosse stato messo a tacere.

Non è affidabile se si utilizzano shadow ban, ma ai fini della discussione, a chi sarebbe ovvio? Non all’utente messo a tacere segretamente, né alla community, poiché ogni membro non commenterà ogni argomento. Tieni presente che uno shadow ban viene spesso applicato a singoli commenti, non necessariamente a un intero account.

Beh, per una community di diciamo venti persone, se hanno una qualsiasi comunicazione al di fuori dell’app di shadow ban, nel giro di pochi giorni la maggior parte delle persone si renderebbe conto che non tutto ciò che hanno scritto viene pubblicato.

Parlando al telefono si potrebbe semplicemente chiedere: “Ehi, hai visto quel commento che ho scritto?”

Beh, per una community di diciamo venti persone, se hanno una qualsiasi comunicazione al di fuori dell’app di shadow ban, nel giro di pochi giorni la maggior parte delle persone sarebbe in grado di rendersi conto che non tutto ciò che hanno scritto viene pubblicato.

Ne dubito. Questa pratica è iniziata con gli albori di Internet ed è esplosa in quello che ora vedete: piattaforme con miliardi di utenti.

In ogni caso, vale la pena approfondire. Qualcuno dovrebbe studiare l’impatto delle shadow ban. Ad oggi, non ho visto uno studio del genere.

Questa rientrerebbe nella categoria di modifica/filtraggio dei commenti, “ban” significa censura completa.

“Ban” significa semplicemente che qualcosa non è permesso. Può essere una parola chiave, un link, un argomento, un account o solo un commento o un punto di vista. Il termine “shadow ban” è venuto alla ribalta pubblica per la prima volta nel contesto di ban applicati segretamente a interi account. Tuttavia, le piattaforme non divulgano anche tonnellate di azioni contro singoli post agli autori di tali post.

L’aspetto oscuro, in cui l’autore di un post filtrato/limitato/demosso/rimosso non sa che qualcuno ha agito contro il suo contenuto, è in realtà la parte più importante e non dovrebbe essere omesso. Preferisco il termine onnicomprensivo “shadow moderation” (moderazione ombra), tuttavia uso spesso “shadow ban” perché molte persone hanno già visto quella parola nei notiziari. Vedi questo articolo del WaPo, ad esempio, che usa il termine “shadow ban” per descrivere azioni sia contro interi account sia contro singoli post.

1 Mi Piace

Ok, concordo que pode ser um problema. Com o Discourse, cabe aos moderadores decidir se querem informar alguém que as suas publicações estão a ser editadas/removidas como cortesia. Geralmente, é educado fazê-lo. Com o sistema de sinalização, existe a notificação automática se uma publicação foi sinalizada e, em seguida, o autor tem a oportunidade de rever/editar a publicação após um período de “arrefecimento” de dez minutos; este é um sistema sofisticado.

Com plataformas massivas como Google YouTube, as coisas são diferentes. Tenho visto que se alguém é banido de um canal, isso significa que os seus comentários estão a ser censurados, mas eles não são notificados sobre isso.

Sì, spetta alla piattaforma. Non sostengo una soluzione legislativa per legare le mani alle piattaforme. Ciò darebbe semplicemente al governo il potere di censurare, che è precisamente ciò contro cui il primo emendamento protegge. Inoltre, una soluzione legislativa potrebbe non applicarsi ai servizi di social media con sede all’estero. O se si applicasse, potrebbe essere difficile da far rispettare.

Reddit e Twitter/X un tempo erano piccoli, eppure hanno affrontato questo argomento, ad esempio qui nel 2007:

Un’idea migliore è un ban silenzioso. Lascia che pubblichi commenti, e mostrargli quei commenti, ma semplicemente ometterli per tutti gli altri.

Pertanto, le piattaforme potrebbero essere cresciute con l’aiuto della moderazione ombra. Usandola, le piattaforme ingannano gli utenti facendogli credere di poter condividere i propri punti di vista senza essere censurati. In realtà, gli utenti sprecano il loro tempo a scrivere mentre le piattaforme incassano dollari pubblicitari.

Stai usando il tempo passato, ma Twitter/X lo fa ancora nel 2023.

4 Mi Piace

Le differenze linguistiche sono interessanti, o è più una questione di cultura, ma abbastanza ampiamente solo lo stato/governo può fare censura. Le parti private mai. E poi la moderazione, è trasparente o nell’ombra, non fa parte della censura e il termine censura viene usato per lo più solo in… significato attenuato.

Ma continua, questo è un argomento interessante e sto cercando di seguirlo.

2 Mi Piace

Sì, vorrei che le persone si concentrassero su questo. Cioè, come vengono rimossi i contenuti, piuttosto che cosa viene rimosso. Sarebbe un semplice cambiamento di codice rivelare i shadow ban esistenti, e l’amministratore delegato ha già promesso di farlo un anno fa.

Il ritardo, dice l’ex capo di Trust & Safety di X, Yoel Roth, dice, è che X deve anche spiegare agli utenti il motivo dello shadow ban. Dice che poiché queste spiegazioni sono in note di testo libero che non sono state scritte per gli occhi del pubblico, devono prima essere categorizzate prima che le persone possano essere informate sui loro shadow ban.

Non mi convince quella spiegazione. “Bare notice” (solo avviso), come descritto qui da un ricercatore, è separato dalle spiegazioni, e la necessità di categorizzazione non è una scusa per continuare a ingannare gli utenti.

Ogni volta che vedo persone che travisano il CEO di X come il nuovo campione della libertà di parola, cerco di chiarire i fatti, ma non ho molti follower. Personalmente non credo che possiamo fare affidamento su nessun individuo o organizzazione per fornirci la libertà di parola. Dobbiamo assumerci ciascuno quella responsabilità. Certamente dovremmo unirci dove possibile, ma se stai aspettando che qualcun altro protegga il tuo discorso, rischi di essere fuorviato.

2 Mi Piace