Lei de Segurança Online (Novas Regras da Ofcom)

Após conversar um pouco mais com @RCheesley sobre isso, percebi que outra coisa útil que eu poderia fazer é compartilhar uma lista de ferramentas/estratégias de mitigação, sem associá-las a riscos específicos.

Não estou sugerindo que todas as comunidades devam usar todas essas coisas, ou que não existam outras que devam usar. Esta não é uma lista definitiva. Se alguém sentir que tem um nível inaceitável de risco não mitigado, sinta-se à vontade para postar aqui e podemos discutir opções.

Então, aqui está a lista, em nenhuma ordem particular:

  • Termos de serviço que são:
    • abrangentes
    • relevantes
    • atualizados
    • fáceis de encontrar e acessar
  • Termos de serviço que podem:
    • excluir especificamente o fornecimento ou solicitação de dados de crianças
    • divulgar a visibilidade para administradores de todo o conteúdo (incluindo mensagens privadas e chat)
  • Políticas internas de denúncia (whistleblowing)
  • Práticas robustas de moderação realizadas por pessoal treinado e podem incluir:
    • a remoção rápida de conteúdo ilegal
    • a aprovação manual de registro forçada
    • a exigência de perfis completos com campos obrigatórios, incluindo nomes reais
    • a remoção de contas de organizações proibidas
    • a moderação proativa de perfis de usuários
    • a desativação de mensagens e chat entre usuários
  • A opção de sinalização para conteúdo ilegal disponibilizada para usuários anônimos
  • Níveis de confiança
  • Palavras observadas
  • Triagem por IA
  • Uploads seguros
  • Modo lento
  • Temporizadores de tópico podem ser úteis em algumas instâncias
6 curtidas

Esta parece ser uma área onde o Discourse poderia oferecer mais suporte a recursos.

Por padrão, o Discourse permite mensagens privadas no Nível de Confiança 1, que os usuários podem alcançar automaticamente, sem intervenção do moderador, lendo 30 posts em 5 tópicos ao longo de 10 minutos.

A maioria dos moderadores de fórum só lê mensagens privadas se alguém no tópico marcar um post. Portanto, se duas pessoas não se opõem a se comunicar por mensagem privada (por exemplo, trocando pornografia consensualmente ou aliciando com sucesso um menor), os moderadores não serão sinalizados e o tópico não será revisado.

Seria um bom primeiro passo poder limitar o acesso a mensagens privadas a usuários que afirmam ter mais de 18 anos. (Isso poderia ser uma simples caixa de seleção, ou poderia incluir um mecanismo de bloqueio de idade em conformidade com o Online Safety Act.)

Atualmente, parece que nossa única ferramenta disponível é permitir que membros de um grupo específico enviem mensagens privadas, o que significa que os usuários teriam que navegar até a página do grupo e clicar em “Solicitar” para solicitar acesso ao grupo. (E eles teriam que encontrar esse botão, uma tarefa árdua.) E então um moderador teria que adicionar manualmente o usuário ao grupo.

Há algo melhor que possamos fazer?

2 curtidas

Você pode criar um campo de usuário personalizado e usar uma automação que adiciona usuários que marcam essa caixa de seleção a um grupo automaticamente.

E então você permite que esse grupo inicie mensagens pessoais.

Mas isso não impedirá que os usuários que receberam mensagens recebam e respondam a mensagens pessoais.

2 curtidas

Eu não acho que sabia disso. Em geral, os usuários TL0 podem responder a mensagens privadas que recebem?

Você pode usar palavras monitoradas para mitigar esse risco.

2 curtidas