Eu li alguns posts encorajadores aqui sobre o tema de moderação, como o do @codinghorror aqui[1](Recommendations for handling difficult situations), e queria dar minha contribuição.
Divulgações recentes pelo Twitter[1](https://twitter.com/bariweiss/status/1601013855697588224) reacenderam o debate sobre o uso de ferramentas de moderação semelhantes a shadowban. Elas são boas ou ruins para o discurso? Com este post, espero gerar algum debate entre moderadores e usuários sobre o uso de shadowbans.
Minha hipótese é que a moderação transparente fomenta uma base de usuários preparada, onde moderadores e usuários confiam uns nos outros, e a moderação oculta cria mais problemas do que resolve. Portanto, argumento que coisas como o shadowban nunca* devem ser usadas, mesmo para fóruns “pequenos” como instalações do Discourse.
Sobre mim
Sou o autor do Reveddit, um site que mostra aos Redditors seu conteúdo removido secretamente. O Reveddit foi lançado em 2018 e, desde então, tenho me manifestado no Reddit[1](https://old.reddit.com/user/rhaksw/), Hacker News[1](rhaksw's comments | Hacker News) e, mais recentemente, no Twitter[1](https://twitter.com/rhaksw/with_replies) sobre minha oposição ao uso generalizado de ferramentas semelhantes a shadowban, que chamo de Moderação Oculta. Caso haja alguma dúvida de que alguma forma de moderação oculta está acontecendo em todas as plataformas mais populares, por favor, veja também minha palestra para Truth and Trust Online 2022[1](Reveddit.com: Improving online discourse with transparent moderation. October 12, 2022), slides 8-9 às 5:50, ou minha participação no Using the Whole Whale[1](https://www.wholewhale.com/podcast/what-is-shadow-moderation-how-is-it-silencing-speech/). Se houver alguma dúvida de que a prática é impopular entre usuários de todos os tipos, por favor, veja as reações de milhares de usuários no FAQ do Reveddit[1](reveddit).
Prefácio
Para referência, aqui estão algumas definições existentes de comportamento semelhante a shadowban:
- “tornar deliberadamente o conteúdo de alguém indetectável para todos, exceto para a pessoa que o postou, sem o conhecimento do autor original”. - Blog do Twitter[1](https://blog.twitter.com/en_us/topics/company/2018/Setting-the-record-straight-on-shadow-banning)
- “Um usuário hellbanned é invisível para todos os outros usuários, mas crucialmente, não para si mesmo. Do ponto de vista deles, eles estão participando normalmente da comunidade, mas ninguém nunca responde a eles. Eles não podem mais perturbar a comunidade porque são efetivamente um fantasma.” - Coding Horror[1](Suspension, Ban or Hellban?)
E aqui estão duas definições minhas:
- Moderação Transparente: Quando os usuários são notificados sobre as ações tomadas contra seu conteúdo.
- Moderação Oculta: Qualquer coisa que oculte as ações do moderador do autor do conteúdo que foi agido.
Note que quando as plataformas falam sobre transparência, elas simplesmente significam que delineiam claramente suas políticas. Isso não é o mesmo que moderação transparente.
E para ser claro, eu apoio o uso de moderação que seja transparente. Eu não apoio a intervenção governamental nas mídias sociais para impor transparência às plataformas, como está sendo tentado pelo PATA[1](https://www.coons.senate.gov/imo/media/doc/text_pata_117.pdf) nos EUA ou pelo DSA[1](https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=uriserv%3AOJ.L_.2022.277.01.0001.01.ENG%26toc=OJ%3AL%3A2022%3A277%3ATOC) na Europa (Platform Accountability and Transparency Act e Digital Services Act, respectivamente). Portanto, também aceito o direito legal das plataformas de se envolverem em moderação oculta.
O argumento a favor da moderação transparente
O argumento a favor da moderação transparente é melhor definido como um argumento contra a moderação oculta.
A moderação oculta vai contra o habeas corpus, um conceito de mil anos de que o acusado tem o direito de confrontar seu acusador. Os valores do habeas corpus estão consagrados na Constituição dos EUA como uma emenda (a 6ª), mas também é uma dignidade básica que esperamos para nós mesmos e, portanto, devemos dar aos outros. Simplesmente, punições secretas são injustas.
Agora você pode dizer: “mas estas são plataformas privadas!” De fato são. No entanto, em particular, ainda nos esforçamos para defender certos ideais, como explica Greg Lukianoff da FIRE aqui.
John Stuart Mill fez o mesmo argumento em On Liberty, onde escreveu: “A proteção, portanto, contra a tirania do magistrado não é suficiente: é necessária proteção também contra a tirania da opinião e do sentimento predominantes.”[1](The Project Gutenberg eBook of On Liberty, by John Stuart Mill.)
Agora você pode dizer: “Precisamos disso para lidar com spam de bots!” Isso só funcionará por um curto período. A longo prazo, os bots descobrirão como verificar a visibilidade de seu conteúdo, enquanto os usuários, em sua maioria, não o farão. Portanto, a moderação transparente funcionará tão bem para bots, e a moderação oculta prejudica apenas indivíduos genuínos.
Talvez você diga: “Estou usando isso apenas em um fórum pequeno.” E aí eu perguntaria, é realmente necessário recorrer à decepção? Sentir-se confortável com a moderação oculta em uma pequena instalação do Discourse pode ser um passo para apoiar seu uso em plataformas maiores, e o dano lá é claro para mim. Todos os lados de todas as questões em todas as geografias em todas as plataformas são impactados. Mais de 50% dos Redditors têm algum comentário removido em seu último mês de uso. Interrompe um número incontável de conversas, talvez por medo do que acontecerá se o ódio for “libertado”. Mas o Reveddit existe há quatro anos, e isso não aconteceu. Em vez disso, o que observei foram comunidades mais saudáveis, e linkei muitos exemplos disso em minha palestra.
A moderação oculta em escala também capacita seu oponente ideológico. Grupos que você considera incivilizados são mais propensos a fazer uso incivil da moderação oculta. Quaisquer benefícios que você tenha enquanto estiver na posição capacitada de implementar tais ferramentas se esgotarão com o tempo. E enquanto você usar a moderação oculta, não vencerá discussões sobre seu uso em outros lugares.
Até onde sei, pouca pesquisa foi feita para estudar os efeitos da moderação oculta. Conheço um estudo que indica que a carga de trabalho do moderador diminui à medida que a transparência aumenta[1](Does Transparency in Moderation Really Matter?: User Behavior After Content Removal Explanations on Reddit | by Shagun Jhaver | ACM CSCW Blog | Medium). No entanto, sabemos que sociedades abertas prosperam em comparação com aquelas que são fechadas.
Sem controle, a moderação oculta cria grupos tribais isolados que não estão preparados para conversas do mundo real onde tais proteções não estão disponíveis. Isso pode levar a atos de violência ou autoagressão porque o dano infligido por palavras é real quando falhamos em aceitar os limites do que podemos controlar. Podemos, em vez disso, optar por responder ao ódio com contra-discurso e encorajar as bases de usuários a fazerem o mesmo.
Finalmente, novas legislações não podem resolver isso para nós. Qualquer lei desse tipo abalaria nossas liberdades individuais e teria a consequência não intencional de (a) capacitar a própria entidade contra a qual a declaração de direitos foi projetada para proteger, ou (b) não funcionar, pois não há como impor transparência sem dar ao governo acesso a todo o código. Então você está de volta ao ponto de partida ou pior do que quando começou. O apoio ao habeas corpus e, portanto, ao discurso civil é melhor alcançado através do apoio cultural à moderação realmente transparente. Qualquer coisa aquém disso seria um curativo cobrindo uma ferida supurante.
Conclusão
Em conclusão, não se deve adotar a posição: “ele está fazendo isso, então eu tenho que fazer para competir em igualdade de condições”. Considere, em vez disso, que ambos podem ter um péssimo equilíbrio. Instalações do Discourse e outros fóruns que não usam moderação oculta têm uma base mais forte. Suas bases de usuários estão preparadas, moderadores e usuários confiam uns nos outros e, portanto, ambos se sentem livres para falar abertamente e honestamente. E, dado o uso generalizado da moderação oculta, é agora mais importante do que nunca apoiar vocalmente a moderação transparente.
Apêndice
Um uso ainda não relatado de moderação oculta no Twitter pode ser quando Tweets são automaticamente ocultados com base em menções de certos links. Descobri isso quando compartilhei um link para meu novo blog para o qual comprei um domínio barato de US$ 2/ano com a TLD .win. Após compartilhá-lo via Twitter, notei que meus tweets estavam aparecendo para MIM, mas NÃO para outros. Por exemplo, este tweet[1](https://twitter.com/BrookingsInst/status/1587581502971314176) não mostra a resposta minha, mesmo quando você clica no botão “Mostrar respostas adicionais”. Para ver minha resposta, você tem que acessar o link diretamente[1](https://twitter.com/rhaksw/status/1587652507009884160). Efetivamente, essa resposta não é visível para ninguém que não me conheça, e o sistema oculta esse fato de mim enquanto estou logado.
* A única circunstância em que acho que a censura generalizada é útil é quando a sociedade esqueceu seus malefícios. Nesse caso, ela inevitavelmente retorna, mesmo que apenas para nos lembrar mais uma vez de seus efeitos deletérios.