Lei de Segurança Online - Quais novas funcionalidades estarão disponíveis?

Olá a todos,

Estou ciente de que o Online Safety Act entrou em vigor no Reino Unido em novembro de 2023. Gostaria de saber se a Discourse está lançando novos recursos para dar suporte a esta nova lei e ajudar a tornar as comunidades online mais seguras para menores de 18 anos?

Obrigado!

7 curtidas

:wave:

Uma nova opção de bandeira ‘É ilegal’ foi adicionada.

5 curtidas

Posso ter um link para revisar? Curioso para ver o que as mudanças no Reino Unido implicam

3 curtidas

Há uma explicação aqui

3 curtidas

Acabei de encontrar uma sessão de discussão futura que pode ser do interesse do pessoal do Discourse:

“Promising Trouble está organizando uma sessão de almoço com Ali Hall e Andrew Park da Ofcom para discutir as novas responsabilidades de Segurança Online para sites comunitários pequenos e de baixo risco.”

Quarta-feira, 12 de fevereiro de 2025 – 6h30 - 8h00 CST

Existem posts interessantes sobre este tópico aqui:

No momento, estou trabalhando na conformidade com a OSA (Online Safety Act).

Embora a maior parte do trabalho pareça consistir em documentar que a organização considerou e tentou mitigar o risco de Danos Ilegais, fiquei pensando se alguém desenvolveu alguma documentação compartilhável ou ferramenta automatizada para ajudar a fornecer uma base de evidências para a ausência de atividades nefastas em seus fóruns?

Estava pensando em, possivelmente:

  • Consultas ao Explorador de Dados (Data Explorer) procurando por palavras-chave ou padrões de uso específicos?
  • Listas de Palavras Monitoradas (Watched Words) que poderiam melhorar a sinalização de postagens e mensagens privadas?
  • Configurações ou prompts do Discourse AI que poderiam ajudar a sinalizar atividades preocupantes?
  • Modelos para Termos de Serviço aprimorados ‘Aprovados pela OSA do Reino Unido’?
  • Outras ‘dicas e truques de sysadmin’ para maximizar a eficácia das proteções, com o mínimo de trabalho adicional?

Estou tão preocupado quanto qualquer outra pessoa com as implicações de privacidade de tudo isso, mas se formos auditados, precisaremos ser capazes de mostrar que investimos um esforço apropriado verificando se nada ilegal estava acontecendo e podemos apresentar (e revisar) essas evidências anualmente.

Palavras observadas parecem uma boa ideia, embora, claro, seja um instrumento grosseiro.

Posso optar por documentar um processo de verificação periódica do uso de mensagens de usuário para usuário. Mas isso funciona para mim porque meus usuários mal usam a facilidade.
/admin/reports/user_to_user_private_messages

Se houvesse um aumento nessas mensagens, isso poderia indicar um risco elevado, e eu precisaria de uma resposta para isso. Não tenho certeza do que existe entre os extremos de

  • os usuários informarão aos administradores se as mensagens forem problemáticas
  • os administradores lerão algumas (ou todas) as mensagens para verificar se não são problemáticas

Pessoalmente, não quero análise automatizada que teria falsos negativos, bem como falsos positivos.

Eu me concentraria (concentrarei) em declarações simples que posicionam meu fórum como de risco muito baixo em todos os eixos. A verificação proporcional é, portanto, não fazer nada, ou se algo, então algo muito mínimo e fácil. Confiar em sinalizações é simples e fácil.

1 curtida

Acabei de começar a configurar um discourse auto-hospedado para nossa comunidade e essa é uma preocupação que também surgiu do meu lado, muitos sites estão implementando verificação de identidade para contornar quaisquer legalidades. Nossa comunidade começará com uma idade mínima de 16 anos e será hospedada no Reino Unido. Embora essa seja a ficção do relatório para relatar algo ilegal, sou lembrado de que este é um serviço usado por adultos e precisamos estar em conformidade.

Existe alguma ferramenta adicional vindo para ajudar com isso ou isso atualmente satisfaz as mudanças na lei?

Alguém conseguiu fazer alguma integração com serviços de verificação de idade?

1 curtida