Essas plataformas têm sido alvo de intenso escrutínio por não removerem certos posts.
Por outro lado, pessoalmente, não estou muito feliz com o fato de uma empresa ou pessoa estrangeira poder influenciar nossa democracia removendo posts de acordo com suas (próprias) regras.
Então, acho que este seria um bom meio-termo. Melhor do que qualquer uma das opções acima.
Acho que estamos de acordo. Eu apoio o direito das plataformas de removerem o que quiserem, mesmo posts de usuários reclamando de conteúdo censurado. No entanto, elas deveriam informar os autores dos posts removidos.
Sim, no nível nacional, o risco compartilhado é óbvio. Mas também é aparente no nível local. Imagine que a associação de moradores da sua casa tenha um grupo de bate-papo, e você escreva um comentário crítico à sua liderança ou às suas taxas. Se o líder desse grupo puder secretamente excluir seu comentário, ele poderá então fazer uma campanha contra você. E a crítica dele a você parecerá preceder a sua crítica a ele, fazendo você parecer a criança. Faz sentido?
O ponto é que você não quer esse estilo de moderação de conteúdo em lugar nenhum, nem em grupos comunitários, grupos escolares e, especialmente, não em plataformas globais. No entanto, essa é a nossa realidade atual. E, apesar das preocupações generalizadas sobre mídias sociais, ainda não convenci nenhuma organização estabelecida de direitos civis ou liberdade de expressão a falar publicamente contra o uso de moderação oculta.
Isso é excessivamente simplista, mas imagino dois grupos, tecnólogos e especialistas em liberdade de expressão, que detêm conhecimentos importantes, mas cada um está perdendo o conhecimento do outro.
(1) Tecnólogos acreditam incorretamente que a censura é a maneira certa de lidar com trolls.
(2) Especialistas em liberdade de expressão acreditam incorretamente que os banimentos ocultos são necessários para lidar com bots.
De alguma forma, a lacuna entre os dois deve ser preenchida para que possam se beneficiar da experiência um do outro.
Vou passar porque então teremos que começar a traçar linhas se desinformação e fantasias de fábricas de trolls deveriam ser permitidas em nome da liberdade de expressão. E então nos afastaremos fortemente do propósito desta plataforma, ou seja, fora do tópico.
Este é um cenário interessante que você descreve aqui. Isso entra na manipulação social enganosa, que pode criar todos os tipos de problemas e mal-entendidos.
Não estou achando graça. Em parte porque nossa fronteira leste será fechada em três horas. E uma grande fábrica de trolls disse no X que isso acontece porque a OTAN assumiu a Finlândia e está planejando um ataque furtivo. Mas ei, isso não deveria ser censurado em nome da liberdade de expressão.
Fábrica de trolls é um termo válido. Você não sabia?
Peço desculpas pela piada, mas eu não disse que nada deveria ser censurado. Eu disse que a censura secreta capacita fazendas de trolls a ponto de controlarem plataformas, o que parece ser o que você está descrevendo. Precisamos de transparência para que todos estejam na mesma página.
Sim, uma infinidade de manipulações são possíveis quando se admite até mesmo o uso “excepcional” de banimentos ocultos. Já me deparei com inúmeras pessoas inteligentes que acham aceitável o uso excepcional de sigilo contra aliados. Para ser claro, este é o modo predominante de pensamento no mundo da moderação de conteúdo dentro de empresas de mídia social, entre acadêmicos e até mesmo em algumas grandes instituições que afirmam apoiar a liberdade de expressão.
As pessoas também têm direitos à privacidade, bem como à liberdade de expressão em muitos países.
Para artigos acadêmicos revisados por pares e publicações impressas legítimas, estes precisam ser revisados antes de serem publicados, isso não significa que as pessoas ainda não tenham o direito de se expressar livremente.
Tudo o que estou dizendo é que existem pessoas que estudam a moderação de conteúdo, mas elas não estudam o impacto da moderação oculta ou não divulgada. Essa é uma enorme lacuna de pesquisa.
Você está correto em apontar que as pessoas são livres para estudar o que quiserem. Na minha opinião, a falta de pesquisa sobre moderação oculta é uma omissão gritante e uma enorme oportunidade para qualquer pesquisador abraçar.
Bem, claro que há uma oportunidade de pesquisa aí, mas se os dados estão sendo ocultados da vista do público, os estudos não serão precisos sem pesquisas para que as pessoas relatem suas experiências com shadow-bans, mas como você mencionou, elas podem nem saber que isso está acontecendo.
De qualquer forma, isso iria além do que este site de suporte se destina, a menos que seja focado especificamente no aplicativo Discourse.
Por ser de código aberto para sites independentes, não está na mesma categoria de outros aplicativos de sistema fechado.
Não necessariamente. Um pesquisador poderia criar ferramentas para rastrear o que foi removido ou alterado. Isso já é possível no Reddit, como demonstro com o site e a extensão Reveddit. Geralmente, uma extensão deve ser capaz de rastrear seções de comentários visíveis publicamente e ordenadas por data. E, fóruns públicos podem ser onde a maior parte da manipulação oculta ocorre, já que esse é o conteúdo mais visível e, portanto, mais compartilhado.
Além disso, também se poderia publicar pesquisas sobre entrevistas com pessoas que pensam sobre moderação oculta em várias plataformas. Você não precisa necessariamente saber o que foi removido para publicar pesquisas. Saber como isso é feito já é suficiente para contribuir com algo interessante.
Este é um fórum de discussão geral sobre moderação de comunidade. Não acho que seja fora do tópico discutir pesquisas sobre moderação de conteúdo.
Eu não diria isso. Alguém executando código aberto pode adicionar código extra que você não conhece. Não há garantia de que eles estejam executando o código-fonte original. A melhor maneira de gerenciar uma comunidade confiável, na minha opinião, é declarar que você não usa moderação oculta e é transparente sobre todas as ações de moderação para os autores do conteúdo.
Se puder ser provado que um indivíduo ou organização específica está fazendo isso, você pode enviar a eles um aviso legal de que, se não pararem, poderá/irá registrar acusações contra eles por assédio/perturbação ou apenas por usar serviços da web sem permissão. As pessoas podem ser processadas por isso.
Isso só funciona se você for nomeado, não anônimo. O anonimato tem seu lugar para desafiar a política existente, mas esperamos saber os nomes das pessoas que administram fóruns que chamamos de confiáveis.
O nome anterior da conta ainda era anônimo; não era um nome real. Além disso, não sabemos qual fórum ele gerencia. Se alguém quiser declarar que não usa moderação oculta, deve fazê-lo onde sua identidade e afiliação sejam conhecidas.
Isso não significa que todos os usuários devam ser identificados, apenas que o nome do gerente do fórum deve ser conhecido para que alguém possa ser responsabilizado pelo alinhamento ou desalinhamento do site com seu comportamento declarado. Por exemplo, as cartas de “Mrs. Silence Dogood” de Ben Franklin foram publicadas anonimamente em um jornal administrado por seu irmão. Os Artigos Federalistas e as Cartas de Cato também foram publicados anonimamente, mas distribuídos por jornais de renome conhecido. Portanto, você ainda pode permitir o anonimato e contribuições valiosas para o discurso, desde que alguém coloque seu nome por trás da distribuição.
Às vezes, é melhor que suspensões e silenciamentos não sejam visíveis por contas não administrativas. No entanto, cada proprietário de comunidade precisa decidir qual filosofia funciona melhor. Para a percepção pública,
Suspensões não anonimizam contas; isso é feito por uma equipe do fórum, muitas vezes a pedido do usuário.
As plataformas há muito tempo sustentam que o shadow banning é necessário para lidar com spam, mas os shadow bans não enganam os bots. Surpreendentemente, acontece que quando as plataformas falam sobre “spam”, elas se referem a conteúdo escrito por você e por mim, usuários genuínos. Mas elas não têm sido transparentes sobre essa definição.