Após conversar um pouco mais com @RCheesley sobre isso, percebi que outra coisa útil que eu poderia fazer é compartilhar uma lista de ferramentas/estratégias de mitigação, sem associá-las a riscos específicos.
Não estou sugerindo que todas as comunidades devam usar todas essas coisas, ou que não existam outras que devam usar. Esta não é uma lista definitiva. Se alguém sentir que tem um nível inaceitável de risco não mitigado, sinta-se à vontade para postar aqui e podemos discutir opções.
Então, aqui está a lista, em nenhuma ordem particular:
- Termos de serviço que são:
- abrangentes
- relevantes
- atualizados
- fáceis de encontrar e acessar
- Termos de serviço que podem:
- excluir especificamente o fornecimento ou solicitação de dados de crianças
- divulgar a visibilidade para administradores de todo o conteúdo (incluindo mensagens privadas e chat)
- Políticas internas de denúncia (whistleblowing)
- Práticas robustas de moderação realizadas por pessoal treinado e podem incluir:
- a remoção rápida de conteúdo ilegal
- a aprovação manual de registro forçada
- a exigência de perfis completos com campos obrigatórios, incluindo nomes reais
- a remoção de contas de organizações proibidas
- a moderação proativa de perfis de usuários
- a desativação de mensagens e chat entre usuários
- A opção de sinalização para conteúdo ilegal disponibilizada para usuários anônimos
- adição de informações ao modal de sinalização
- Níveis de confiança
- Palavras observadas
- Triagem por IA
- Uploads seguros
- Modo lento
- Temporizadores de tópico podem ser úteis em algumas instâncias