And agree with you that US and U.K. media these days is too busy pushing a narrative and opinion that the actual news gets twisted, and as you say, this feeds into the discussions people have on social media.
The problem with this approach (and indeed with the “fair and balanced” aspect of journalism) is the assumption of “good faith” on all sides or the idea that “all opinions deserve to be heard.” The problem is, recent history has proved this to not be true.
Bigotry, racism, classism and other terrible under bellies of human nature proliferate this way, in part because many communities permit “sealioning”, or the “forced debate” to occur. The act of sharing ones opinion should not force others to debate it. These tactics are used very effectively to derail or shut down the conversation. We’ve had disruptive members use these tactics in the past to “take over” discussions with intentionally controversial or inflammatory comments that will knowingly spark debate.
Taken separately, these comments may seem innocent until you examine the comment histories and realize the poster has been repeatedly taking the most inflammatory positions on topics for just this reason. This has sometimes taken more than a year to prove out, leading to untold derailments and damage to the community, all under the guise of letting all opinions be aired and debated.
I wish I could say this was uncommon, but it isn’t. In fact we just had a user admit to this process by creating new accounts after each was banned since 2013. There is an increasing number of folks who seem to enjoy joining forums filled with certain types of communities just to “stir the pot” and post the reactions elsewhere or just for personal gratification. It is important that forums take this behaviour in to account if it is to try and permit controversial or charged topics.
Well stated, and you have actively moderated a site that discusses quite a few contentious topics for quite some time now, so you have plenty of real world examples to draw on. I also found this comic on the Paradox of Tolerance – which I took 30 minutes to source to the original, surprisingly in Spanish by an amazing art infographic account – extremely relevant:
Desculpe pelo ressurgimento, mas senti que poderia oferecer algo de valor aqui. Não tenho certeza se existem comunidades lidando com isso, já que o discurso político tóxico não avançou em nada, então talvez isso possa ajudar.
Em meu fórum, com uma base de usuários muito ativa, tomamos a decisão há dois anos de proibir qualquer discussão política. E sabe de uma coisa? Após um breve e estranho período de adaptação, todos aderiram. E ficaram gratos por isso.
Depois de anos literalmente hospedando uma “Taverna Off-Topic”, onde tudo era permitido, percebemos duas coisas principais…
Você não pode isolar emoções: quaisquer conversas que ocorressem na OTT degradariam a qualidade da comunidade e da discussão em outros lugares do site. Com uma amostra substancial, os usuários — que de outra forma formam uma comunidade unida em torno de um tópico específico (time de futebol) — foram incapazes de separar seus pensamentos/emoções de outros usuários com quem haviam discutido politicamente. Isso foi corroborado por uma queda nos Usuários Ativos, usuários solicitando a exclusão de suas contas e comentários anedóticos de dezenas de usuários de longa data.
Devorou o tempo dos moderadores: Simplesmente é impossível ter moderadores voluntários — quer dizer, até moderadores pagos — quando se tem uma comunidade ativa discutindo política. Tive dois moderadores que desistiram de suas funções de moderação especificamente por causa da toxicidade que a política atingiu no fórum. Vá em frente e visite os subreddits por aí. É um ciclo de feedback ou um completo caos. Como os moderadores também são responsáveis por manter a paz e aumentar o apelo da própria comunidade, isso os colocou em uma posição impossível. Novamente, degradação do fórum como resultado.
Finalmente, estamos em um território estranho com a política. E se você tiver mensagens privadas acessíveis ao seu fórum, as pessoas podem usar esse recurso para enviar qualquer tipo de abuso — incluindo ameaças. E quando isso acontece, você, como proprietário do fórum, agora tem exposição/responsabilidade legal para agir.
Minha base de usuários é infinitamente opinativa — sobre tudo. E quando tomamos a decisão, deixei claro que foi minha decisão. Vários usuários de longa data saíram em protesto. A maioria retornou. E pelo menos dois me procuraram pessoalmente desde então para me agradecer pela decisão, afirmando que o fórum poderia ser “uma fuga do vitríolo de hoje”. Tornou-se uma comunidade novamente.
Política é, de fato, um assunto tóxico. No meu fórum, havia 2 tópicos que derivaram para a política. Era difícil discutir o assunto em si sem que os membros fossem arrastados para diferenças de opinião, e então o tópico se tornasse uma tempestade de fogo. Um membro que iniciou a retórica política parou de visitar completamente… e o fórum voltou ao seu estado amigável e cordial anterior. Política não é mais discutida.
Fico feliz que essa abordagem funcione para você. De fato, provavelmente funcionaria para grupos semelhantes ao Nextdoor, onde o propósito principal do grupo não é a política, mas isso não “resolve” nada no sentido macro, não torna o Discourse um produto melhor dizer “censure todo o discurso político se você quiser rodar o Discourse” (essencialmente, sei que essa não é sua intenção aqui).
Nosso fórum faz parte de uma comunidade vasta e diversificada que discute tudo, desde arte e cultura até política mundial, minorias vulneráveis e reforma social. Nosso blog é atacado com frequência suficiente para que façamos parte do Project Shield do Google e do Project Galileo da Cloudflare, em uma tentativa de impedir ataques da internet em geral, e estamos fazendo um esforço de boa-fé para discutir os tópicos “difíceis” (como descrito acima por @codinghorror). A menos que o plano seja realmente “se você quer ter tópicos controversos em sua comunidade, use outra ferramenta”, então acho que precisamos procurar soluções que aspirem a realizar mais do que apenas remover espaços seguros onde essas discussões possam ocorrer. Porque o NextDoor não é um desses lugares, mas acredito que o software Discourse está tentando ser uma opção para permitir que existam.
Parece um grande problema social que o Discourse poderia ajudar a resolver. A abordagem de moderação do tipo whack-a-mole pode ser útil para remover posts que violam as diretrizes de um site, mas é improvável que leve a conversas que reduzam a polarização ou resolvam efetivamente as questões que estão sendo discutidas.
Talvez parte da diferença seja que as pessoas entendem implicitamente as regras para certos tipos de conversas. Por exemplo, se alguém posta uma pergunta no Meta, entende-se que uma resposta apropriada provavelmente seria uma das seguintes:
Pedir mais informações
Demonstrar solidariedade
Sugerir uma solução alternativa
Responder à pergunta
Não acho que exista um entendimento compartilhado semelhante sobre como responder a tópicos sobre questões polarizadoras e emocionalmente carregadas.
Estou me perguntando se haveria algum valor em impor uma estrutura explícita a esses tipos de conversas. A ideia seria usar estruturas como andaimes temporários até que uma comunidade, ou a cultura como um todo, tenha compreendido como ter conversas sobre tópicos emocionalmente carregados. Existem algumas estruturas possíveis em nossa cultura atual:
O talking stick: um bastão de fala é passado pelo grupo. Apenas a pessoa que segura o bastão tem o direito de falar, enquanto todos os outros ouvem respeitosamente. Possivelmente, uma abordagem semelhante poderia ser usada em conversas online para enfatizar a humanidade das pessoas envolvidas em uma discussão específica. (Esteja ciente de questões de apropriação cultural com isso, no entanto.)
Debate formal: uma resolução é debatida entre duas equipes opostas na frente de uma audiência. O Discourse parece ser uma plataforma ideal para isso. Se uma conversa sair dos trilhos, um tópico de debate relacionado poderia ser iniciado. A “audiência” poderia ser consultada antes e depois do debate para ver se ele teve algum efeito em sua opinião.
Steelmanning: o oposto de strawmanning - apresentar o melhor argumento do ponto de vista da oposição. Uma implementação possível seria exigir que os participantes de uma conversa apresentem um argumento a favor do ponto de vista oposto antes de poderem adicionar mais posts argumentando seu ponto de vista em um tópico.
Podem existir outras estruturas que poderiam ser usadas para estabelecer pontos de concordância e discordância entre grupos nominalmente opostos. Por exemplo, enquanto os membros do meu grupo local do Facebook discordam se mais ou menos policiamento ajudará com o que está acontecendo em nosso centro, muitos de ambos os lados concordam que gostariam que houvesse menos pessoas vivendo nas ruas e menos pessoas sofrendo de dependência química. Uma plataforma de discussão poderia nos permitir estabelecer esse ponto de concordância. Discussões adicionais sobre o assunto poderiam ser limitadas aos membros da comunidade que aceitaram que seus oponentes nominais concordavam com eles em um objetivo final desejável, enquanto discordavam nos detalhes de como alcançar o objetivo.
Se não ficou claro, estou adivinhando bastante aqui. É possível que eu esteja completamente enganado, ou que esteja reinventando a roda a partir do zero. Existem alguns sites do Discourse que eu gostaria de criar e que correm o risco de se tornarem bastante tóxicos, então qualquer sugestão sobre como ter discussões úteis em torno de questões polarizadoras seria apreciada.
Eu gosto da ideia de ferramentas para conversas difíceis.
Poderia ser útil se tivéssemos um tópico onde apenas duas pessoas indicadas pudessem contribuir. Talvez qualquer uma delas pudesse passar a “batata quente” para alguém de sua escolha.
Comumente em apresentações públicas temos limites de tempo. Em conversas pessoais temos convenções de revezamento. (Videochamadas sofrem com isso, porque a latência e o áudio half-duplex atrapalham.) Uma das coisas que acho muito estressante é quando alguém demora demais, talvez repetindo a si mesmo, ou introduz muitos pontos. Responder a uma lista crescente de pontos com parágrafos citados torna-se improdutivo.
Portanto, um limite no tamanho das postagens, para esses tipos de conversas difíceis, poderia ser útil. De alguma forma fazer as pessoas pensarem sobre sua posição e resumi-la em algo digerível. O que é diferente de desabafar tudo.
Mas as pessoas precisam se sentir ouvidas - quer sejam concordadas ou não. Não sei se curtidas, corações, reações, são suficientes para isso.
Um meio de ter um facilitador para uma conversa poderia ser útil - poderia ser algo como um moderador. Suas contribuições precisariam se destacar visualmente.
Existem, é claro, habilidades da vida real, que podem ser ensinadas, para ajudar na mediação e reconciliação. E na desescalada…
Tenho me perguntado se as discussões em sala de aula poderiam ser usadas como modelo para como ter discussões online sobre questões controversas. Existem algumas estratégias de discussão de “aprendizagem ativa” que podem ser úteis: Active learning - Wikipedia. Uma implementação básica seria o OP (Original Poster) fazer uma pergunta em vez de apenas fazer uma declaração controversa à qual as pessoas reagem. Tenho visto pessoas obterem bons resultados ao usar essa abordagem no Twitter.
Uma abordagem mais sofisticada seria ter alguém desempenhando o papel de professor/facilitador. Eles poderiam pedir a participantes específicos da discussão para responder a uma pergunta. Eles também poderiam dividir os participantes da discussão em grupos de aprendizagem colaborativa, ou parear participantes para implementar algo como a estratégia de aprendizagem pensar-compartilhar (think-pair-share).
Com certeza! Pode ser que, para dar atenção suficiente às pessoas em uma discussão online, seja necessário excluir algumas delas da discussão. Não acho que ter 50+ (estimando o número aqui) pessoas postando seus pensamentos sobre um assunto seja satisfatório para alguém. Dividir os participantes em grupos de aprendizagem colaborativa poderia ajudar a dar atenção significativa a mais participantes. Um aspecto da atenção que muitas vezes é negligenciado é que as pessoas precisam dar e receber atenção. Uma estrutura que promova dar atenção enquanto se espera a vez de receber atenção seria útil.