Lettura molto interessante. Tuttavia, mi chiedo se ci sia un’utilità per i shadowban in Discourse.
Sì, esiste un plugin shadowban ma è usato raramente. Ha una (1) stella su Github e le statistiche che abbiamo all’interno di Communiteq rivelano che la percentuale di forum Discourse che lo utilizzano attivamente è inferiore allo 0,5%.
Quindi, perché l’adozione dello shadowbanning sulla piattaforma Discourse è così bassa? Non è perché gli shadowban siano cattivi (cosa che sono), ha un’altra ragione. Da un punto di vista tecnico, gli shadowban sono molto facili da rilevare su Discourse. Basta visitare il forum senza accedere o utilizzando un account diverso e notare le differenze. E ciò è possibile perché Discourse non è una piattaforma di social media che utilizza un algoritmo che decide cosa vedrai e in quale ordine ti viene presentato. In Discourse, il contenuto che ti viene mostrato non dipende da ciò che hai fatto / visto / letto o scritto in precedenza. E se non c’è un algoritmo, non c’è posto per minimizzare determinati contenuti. C’è solo l’opzione di nasconderlo completamente invece di mostrarlo.
Non supporto nemmeno tutte le forme di moderazione trasparente, perché la moderazione trasparente può ancora essere soggettiva.
Oltre al mio lavoro nell’ecosistema Discourse, sono anche fondatore di un’azienda che combatte la disinformazione online e l’incitamento all’odio. Durante le conferenze, mi vengono spesso chiesti esempi di interferenze straniere nei processi democratici di questo paese (i Paesi Bassi), dove le persone che fanno la domanda si aspettano sempre che io racconti qualche storia su troll russi. Ma in realtà, i principali esempi di interferenza nei processi democratici da parte di attori stranieri che abbiamo visto in questo paese, sono piattaforme di social media come Twitter o YouTube che bannano o shadowbannano politici olandesi, senza alcun tipo di revisione da parte di un tribunale o di un altro organo indipendente.
E questo è un male.