Possivelmente existem duas questões separadas aqui. A primeira questão é sobre moderadores fazendo o seu melhor para lidar com comportamentos problemáticos. O banimento oculto de usuários desagradáveis foi sugerido como uma abordagem para isso aqui: Discourse Shadowban. Posso entender a motivação, mas não acho que isso ganhe muita força como técnica de moderação - se um usuário é tão persistente, é apenas um adiamento de um conflito inevitável.
A segunda questão é o que está acontecendo em outras plataformas onde o alcance das postagens de alguns usuários é limitado, sem dar a esses usuários qualquer indicação sobre o que está acontecendo. O notável é que esses usuários não violaram os Termos de Serviço da plataforma. Seria tecnicamente possível criar um plugin Discourse que implementasse algo assim, mas a menos que o site fosse extremamente ativo, acho que seria rapidamente descoberto. Na verdade, acho que o Discourse e outras plataformas comunitárias descentralizadas são o antídoto para essa questão. Como um exemplo extremo, se alguém quer criar uma comunidade onde dizer “a Terra gira em torno do Sol” é considerado desinformação perigosa, eles são livres para fazer isso. Pessoas com uma visão de mundo heliocêntrica podem simplesmente encontrar uma comunidade diferente para participar.
Uma questão adicional seria se fosse impossível encontrar hospedagem ou um processador de pagamento para uma comunidade que estivesse indo contra a narrativa dominante em uma questão particular. Exceto por tentar promover os valores da curiosidade intelectual e da diversidade, não tenho grandes sugestões sobre como lidar com isso.
Talvez, mas também, criar soluções para problemas reais é uma boa estratégia de negócios. Como ajudar as pessoas com seu comportamento tipo troll, em vez de apenas bani-las, parece um problema não resolvido. Posso imaginar o Discourse fornecendo algumas ferramentas para ajudar as comunidades com isso. Também poderia ser terceirizado para um serviço externo que fosse composto por terapeutas treinados.