O governo do Reino Unido está planejando alterar as leis de segurança online e eu estava curioso para saber quais medidas o Discourse está tomando para lidar com isso ou se há uma resposta sugerida para quem está hospedando no Reino Unido?
Nossa comunidade está analisando isso, mas não está claro para mim se o ônus é sobre nós ou sobre o Discourse, o que, em teoria, significaria que todos os grupos do WhatsApp ou servidores do Discord precisariam fazer isso.
Obrigado antecipadamente por qualquer ajuda (eu verifiquei, mas não consegui encontrar um tópico recente sobre isso)
Do site da Ofcom: “as empresas são agora legalmente obrigadas a começar a agir para combater atividades criminosas em suas plataformas”
Eu acho que o Discourse já fornece uma maneira de combater atividades criminosas com a bandeira ‘É Ilegal’ para alertar a equipe sobre atividades ilegais no site. Realisticamente, além de implementar medidas como a opção de bandeira ilegal, há muito mais que pode ser feito?
Sim, estamos em cima disso. Temos monitorado isso durante a maior parte do ano e estamos preparados.
É de nós dois. Nós fornecemos as ferramentas para cumprir a OSA (porque temos que cumprir aqui no Meta), mas você é responsável por como as usa.
As principais considerações são:
Temos isso com a sinalização de conteúdo ilegal que @ondrej postou acima, o que deve levá-lo a usar as ferramentas existentes para remover o conteúdo de forma compatível e fazer os relatórios apropriados.
Como acima – a sinalização de ilegal ou outros tipos de sinalização personalizados estão disponíveis para você usar. Estamos fazendo uma alteração para que usuários não logados também possam sinalizar conteúdo ilegal. Temos um prazo para isso, @tobiaseigen?
Você precisará definir seus processos internos, mas todos os dados são registrados para que você possa relatar sobre eles quando necessário.
Também estou interessado, então se alguém puder descobrir, eu também gostaria de saber. Embora eu não consiga encontrar uma definição específica, parece que serviços de tamanhos diferentes são tratados de forma ligeiramente diferente dos provedores de serviços maiores. “Não estamos exigindo que pequenos serviços com funcionalidade limitada tomem as mesmas ações que as maiores corporações.” Gov.uk, parágrafo 6
O software do fórum pode fornecer prontamente uma lista de ações de moderação ao longo de um ano? Ou talvez ações de moderação filtradas por, digamos, respostas a sinalizações? Eu não gostaria de ter que manter um registro separado. (Às vezes, excluo um usuário por causa de uma sinalização - essa não é uma opção ao responder a uma sinalização.)
Não, e receio que seja improvável que forneçamos isso. Assim como com o GDPR, fornecemos as ferramentas para cumprir, mas você precisará buscar seu próprio aconselhamento jurídico.
Há uma discussão no HN aqui (concernente a um caso específico em que uma pessoa que administra 300 fóruns decidiu fechá-los todos) que contém informações úteis e links para documentos oficiais.
Pelo que entendi, 700 mil usuários ativos mensais no Reino Unido é o limite para médio. 7 milhões é o limite para grande.
Note que, eu acho, alguns aspectos da lei não são sensíveis ao tamanho do serviço, enquanto outros são.
Eu acho que este é um caso em que o risco para os proprietários de fóruns é de baixa probabilidade, mas de alto custo. O julgamento individual e a percepção de risco e atitude em relação ao risco estarão em jogo.
Obrigado, Hawk. (Vejo que o link do PDF leva à versão mais recente, apesar de parecer um link para uma versão específica.)
Aqui está uma descrição sensata (mas não oficial) do que as novas leis podem significar para fóruns auto-hospedados de pequena escala que não visam especificamente crianças ou oferecem pornografia. O ponto principal, eu acho, é entender a lei e documentar sua abordagem. A partir daí:
Deveres
Como um pequeno serviço de usuário para usuário, o OSA exige que você:
Tome medidas proporcionais para mitigar os riscos de conteúdo ilegal que você identificou (s10(2)(c))
Tome medidas proporcionais para evitar que as pessoas encontrem conteúdo prioritário (s10(2)(a))
Tome medidas proporcionais para mitigar o risco de as pessoas cometerem crimes prioritários (s10(2)(b))
Permita que os usuários relatem facilmente conteúdo ilegal e conteúdo prejudicial a crianças, e o removam (s20)
Permita que os usuários reclamem sobre relatórios, remoções, etc. (s21)
“Dê atenção especial à importância de proteger o direito dos usuários à liberdade de expressão” (s22(2))
Você não precisa se preocupar muito com esses deveres diretamente – o processo de avaliação de risco o orienta sobre o que você precisa fazer para cumpri-los.
Até agora, todos devem ter todas as informações necessárias da OfCom para realizar avaliações de risco. Assim que você realizar sua avaliação de risco, terá uma lista de riscos identificados que talvez queira mitigar. Tenho bastante confiança de que temos todas as ferramentas implementadas, mas se alguém tiver dúvidas, podemos discutir aqui.
Você tem alguma referência para isso? Fizemos uma pesquisa extensa e não conseguimos encontrar nada que definisse o número de usuários para “tamanho” (o que, honestamente, é uma das minhas maiores reclamações sobre o OSA como está escrito).
Também descobri que essa é uma das coisas mais difíceis de determinar. Eu não tinha certeza se éramos responsáveis por avaliar o risco no Meta (como administradores da comunidade) ou o risco de usar o Discourse de forma mais geral (o risco para nossos clientes).
Se for o último, eu não sabia em que categoria de tamanho isso nos colocaria. Acontece que foi o primeiro.
O que aprendemos em um seminário é que a Ofcom já entrou em contato com as plataformas que atualmente acredita estarem em uma categoria que exige mais do que autoavaliação anual e as informou que elas terão que apresentar formalmente sua avaliação. Se você não foi contatado, acho que pode assumir que é obrigado a fazer sua autoavaliação, concluir qualquer mitigação e reavaliar anualmente ou quando houver mudanças significativas no escopo. Você precisará ser capaz de mostrar seu trabalho de avaliação, se solicitado, mas não precisa enviá-lo a lugar nenhum.
Mas observe que sou tão novo nisso quanto o resto de vocês, então por favor, considere esta minha opinião, em vez de um conselho de conformidade. Você precisará fazer sua própria pesquisa.
Acabei de verificar o esboço atual das orientações e ele define grande, mas não médio. Mas em vários lugares tem notas para serviços com 700 mil usuários, por exemplo:
Olá @HAWK, eu me perguntei se seria possível ter uma página simples e única (ou postagem no fórum) que documentasse como a funcionalidade do Discourse aborda as questões levantadas?
Atualmente, estou apontando fragmentadamente para suas respostas neste tópico, outras postagens sobre denúncia de conteúdo ilegal, administradores em canais de chat etc. como parte de nossas evidências, talvez fosse um pouco mais útil se houvesse uma página ‘oficial’ que listasse as funções principais que o próprio produto oferece para que pudesse ser referenciada como evidência? Talvez também seja útil para as pessoas que revisam a plataforma terem confiança de que ela atende aos requisitos.
Olá Ruth,
Fico feliz em ajudar, mas preciso esclarecer algo primeiro.
A quais questões você está se referindo especificamente? As que você identificou em sua avaliação de risco? Se for o caso, sinta-se à vontade para listar as coisas que você está tentando mitigar e eu posso ajudá-lo com sugestões de ferramentas.
Todos terão riscos diferentes para mitigar e níveis diferentes de tolerância a esses riscos. Como tal, não posso postar nenhum tipo de lista definitiva. Por exemplo, não permitimos crianças menores de 13 anos no Meta, então não precisamos mitigar muitos dos altos riscos relacionados a crianças.
Se você estiver disposta a compartilhar sua avaliação, ficarei feliz em usá-la como exemplo.