El gobierno del Reino Unido planea cambiar las leyes de seguridad en línea y tenía curiosidad por saber qué medidas está tomando Discourse para abordar esto o si hay una respuesta sugerida para quienes alojan en el Reino Unido.
Nuestra comunidad está investigando esto, pero no me queda claro si la responsabilidad recae en nosotros o en Discourse, lo que en teoría significaría que cada grupo de WhatsApp o servidor de Discord tendría que hacer esto.
Gracias de antemano por cualquier ayuda (verifiqué pero no pude encontrar un hilo reciente sobre esto).
Del sitio web de Ofcom: “las empresas ahora están legalmente obligadas a comenzar a tomar medidas para abordar la actividad delictiva en sus plataformas”
Creo que Discourse ya proporciona una forma de abordar la actividad delictiva mediante la marca “Es ilegal” para alertar al personal sobre actividades ilegales en el sitio. Siendo realistas, aparte de implementar medidas como la opción de marca ilegal, ¿hay mucho más que se pueda hacer?
Sí, estamos al tanto. Hemos estado monitoreándolo durante la mayor parte del año y estamos preparados.
Es responsabilidad de ambos. Nosotros proporcionamos las herramientas para cumplir con la OSA (porque tenemos que cumplir aquí en Meta), pero usted es responsable de cómo las utiliza.
Las consideraciones clave son:
Tenemos esto con la marca de contenido ilegal que @ondrej publicó anteriormente, lo que debería impulsarle a usar las herramientas existentes para eliminar el contenido de manera compatible y realizar los informes apropiados.
Como se mencionó anteriormente: la marca de contenido ilegal u otros tipos de marcas personalizadas están disponibles para que las utilice. Estamos haciendo un cambio para que los usuarios que no han iniciado sesión también puedan marcar contenido ilegal. ¿Tenemos una fecha estimada para eso, @tobiaseigen?
Deberá definir sus procesos internos usted mismo, pero todos los datos se registran para que pueda informar sobre ellos cuando sea necesario.
También estoy interesado, así que si alguien puede averiguarlo, me gustaría saberlo también. Aunque no encuentro una definición específica, parece que los servicios de diferentes tamaños se tratan de manera ligeramente diferente a los proveedores de servicios más grandes. “No estamos exigiendo a los pequeños servicios con funcionalidad limitada que tomen las mismas acciones que las corporaciones más grandes”. Gov.uk, párr. 6
¿El software del foro puede proporcionar fácilmente una lista de acciones de moderación durante un año? ¿O quizás acciones de moderación filtradas por, por ejemplo, responder a marcas? No querría tener que mantener un registro separado. (A veces eliminaré a un usuario debido a una marca, esa no es una opción al responder a una marca).
No y me temo que es poco probable que los proporcionemos. Al igual que con el RGPD, proporcionamos las herramientas para cumplir, pero deberá buscar su propio asesoramiento legal.
Hay una discusión en HN aquí (sobre un caso específico en el que una persona que administra 300 foros ha decidido cerrarlos todos) que contiene información útil y enlaces a documentos oficiales.
Por lo que entiendo, 700 mil usuarios activos mensuales en el Reino Unido es el umbral para mediano. 7 millones es el umbral para grande.
Tenga en cuenta que, creo, algunos aspectos de la ley no son sensibles al tamaño del servicio, mientras que otros sí lo son.
Creo que este es un caso en el que el riesgo para los propietarios de foros es de baja probabilidad pero de alto costo. Entrarán en juego el juicio individual y la percepción del riesgo y la actitud hacia el riesgo.
Gracias Hawk. (Veo que el enlace del pdf se resuelve en el último, a pesar de parecer un enlace a una versión específica).
Aquí tienes una descripción sensata (pero no autorizada) de lo que las nuevas leyes podrían significar para foros autoalojados a pequeña escala que no se dirigen específicamente a niños ni ofrecen pornografía. El punto principal, creo, es comprender la ley y documentar tu enfoque. A partir de ahí:
Deberes
Como pequeño servicio de usuario a usuario, la OSA requiere que:
Tomes medidas proporcionales para mitigar los riesgos de contenido ilegal que identificaste (s10(2)(c))
Tomes medidas proporcionales para evitar que las personas encuentren contenido prioritario(s10(2)(a))
Tomes medidas proporcionales para mitigar el riesgo de que las personas cometan delitos prioritarios(s10(2)(b))
Permitas a los usuarios denunciar fácilmente contenido ilegal y contenido perjudicial para los niños, y retirarlo (s20)
Permitas a los usuarios quejarse de las denuncias, eliminaciones, etc. (s21)
“Tengas especial consideración a la importancia de proteger el derecho de los usuarios a la libertad de expresión” (s22(2))
No tienes que preocuparte demasiado por estos deberes directamente: el proceso de evaluación de riesgos te guía sobre lo que necesitas hacer para cumplirlos.
A estas alturas, todos deberían tener toda la información necesaria de OfCom para llevar a cabo evaluaciones de riesgo. Una vez que haya realizado su evaluación de riesgos, tendrá una lista de riesgos identificados que quizás quiera mitigar. Creo que tenemos todas las herramientas en su lugar, pero si alguien no está seguro, podemos tener la discusión aquí.
¿Tienes alguna referencia para esto? Buscamos exhaustivamente y no pudimos encontrar nada que definiera el número de usuarios para el “tamaño” (lo que, sinceramente, es una de mis mayores quejas sobre el OSA tal como está escrito).
También descubrí que una de las cosas más difíciles de determinar. No estaba seguro de si éramos responsables de evaluar el riesgo en Meta (como administradores de la comunidad), o el riesgo de usar Discourse de manera más general (el riesgo para nuestros clientes).
Si es lo segundo, no sabía en qué categoría de tamaño nos metería. Resulta que era lo primero.
Lo que aprendimos en un seminario es que Ofcom ya se ha comunicado con las plataformas que actualmente creen que caen en una categoría que requiere algo más que la autoevaluación anual y les ha informado que deberán presentar formalmente su evaluación. Si no has sido contactado, creo que puedes asumir que debes hacer tu autoevaluación, completar cualquier mitigación y reevaluar anualmente o cuando haya cambios significativos en el alcance. Deberás poder mostrar tu trabajo de evaluación si te lo solicitan, pero no necesitas enviarlo a ningún lado.
Pero ten en cuenta que soy tan nuevo en esto como el resto de ustedes, así que por favor, considera esto mi opinión, más que un consejo de cumplimiento. Necesitarás hacer tu propia investigación.
Acabo de revisar el borrador de orientación actual y define “grande” pero no “mediano”. Sin embargo, en varios lugares tiene notas para servicios con 700.000 usuarios, por ejemplo:
Hubo un seminario web de OfCom “Cumplimiento de la web independiente y comunitaria” para nuestros tipos de sitios, consulte este enlace para ver notas, enlaces y videos:
Hola @HAWK, me preguntaba si sería posible tener una página simple y única (o una publicación en el foro) que documente cómo la funcionalidad de Discourse aborda los problemas planteados.
Actualmente, estoy señalando fragmentos de tus respuestas en este hilo, otras publicaciones sobre la denuncia de contenido ilegal, administradores en canales de chat, etc., como parte de nuestra evidencia. ¿Sería quizás un poco más útil si hubiera una página ‘oficial’ que enumerara las funciones principales que el producto en sí aporta para que pudiera ser referenciada como evidencia? Quizás también sería útil para las personas que revisan la plataforma tener la confianza de que satisface los requisitos.
Hola Ruth:
Me alegra ayudar, pero primero necesito aclarar algo.
¿A qué problemas te refieres específicamente? ¿Los que has identificado en tu evaluación de riesgos? Si es así, no dudes en enumerar las cosas que intentas mitigar y te ayudaré con sugerencias de herramientas.
Cada persona tendrá riesgos diferentes que mitigar y diferentes niveles de tolerancia a esos riesgos. Por lo tanto, no puedo publicar ninguna lista definitiva. Por ejemplo, no permitimos que niños menores de 13 años en Meta, por lo que no necesitamos mitigar muchos de los riesgos altos relacionados con los niños.
Si estás dispuesta a compartir tu evaluación, me complace usarla como ejemplo.