Ley de Seguridad en Línea - ¿Qué nuevas funciones estarán disponibles?

Hola a todos,

Soy consciente de que la Ley de Seguridad en Línea se convirtió en ley en el Reino Unido en noviembre de 2023. Me pregunto si Discourse está lanzando nuevas funciones para apoyar esta nueva ley y ayudar a hacer que las comunidades en línea sean más seguras para los menores de 18 años.

¡Gracias!

7 Me gusta

:wave:

Se ha añadido una nueva opción de bandera ‘Es ilegal’.

5 Me gusta

¿Puedo tener un enlace para revisar? Curioso por ver qué implican los cambios en el Reino Unido.

3 Me gusta

Aquí hay una explicación

3 Me gusta

Acabo de encontrar una sesión de discusión próxima que puede ser de interés para la gente de Discourse:

“Promising Trouble está organizando una sesión a la hora del almuerzo con Ali Hall y Andrew Park de Ofcom para discutir las nuevas responsabilidades de seguridad en línea para sitios comunitarios pequeños y de bajo riesgo.”

Miércoles, 12 de febrero de 2025 – 6:30 AM - 8:00 AM CST

Hay publicaciones interesantes sobre este tema aquí:

Actualmente estoy trabajando en el cumplimiento de la OSA.

Si bien la mayor parte del trabajo parece consistir en documentar que la organización ha considerado y ha intentado mitigar el riesgo de daños ilegales, me preguntaba si alguien ha desarrollado alguna documentación compartible o herramientas automatizadas para ayudar a proporcionar una base de evidencia de la falta de actividad nefastas dentro de su foro.

Estaba pensando, posiblemente:

  • ¿Consultas de Data Explorer que busquen palabras clave o patrones de uso específicos?
  • ¿Listas de palabras vigiladas que podrían mejorar la señalización de publicaciones y mensajes privados?
  • ¿Configuraciones o indicaciones de Discourse AI que podrían ayudar a señalar actividades preocupantes?
  • ¿Plantillas para unos Términos de Servicio mejorados ‘Aprobados por la OSA del Reino Unido’?
  • ¿Otros ‘consejos y trucos de sysadmin’ para maximizar la efectividad de las protecciones, con el mínimo de trabajo adicional?

Me preocupan tanto como a cualquiera las implicaciones de privacidad de todo esto, pero si fuéramos auditados, necesitaríamos poder demostrar que invertimos una cantidad apropiada de esfuerzo en verificar que no estaba sucediendo nada ilegal, y podemos presentar (y revisar) esta evidencia anualmente.

Las palabras observadas suenan como una buena idea, aunque por supuesto es un instrumento poco refinado.

Podría optar por documentar un proceso de verificación periódica del uso de mensajes de usuario a usuario. Pero eso me funciona porque mis usuarios apenas utilizan la función.
/admin/reports/user_to_user_private_messages

Si hubiera un aumento en estos mensajes, podría indicar un riesgo elevado, y necesitaría una respuesta a eso. No estoy seguro de qué hay entre los extremos de

  • los usuarios informarán a los administradores si los mensajes son problemáticos
  • los administradores leerán algunos (o todos) los mensajes para verificar que no sean problemáticos

Personalmente, no quiero un análisis automatizado que tenga falsos negativos y falsos positivos.

Me concentraría (concentraré) en declaraciones sencillas que posicionen mi foro como de muy bajo riesgo en todos los ejes. Por lo tanto, la verificación proporcionada es no hacer nada, o si se hace algo, que sea algo muy mínimo y fácil. Confiar en las marcas es simple y fácil.

1 me gusta

Acabo de empezar a configurar un discourse autoalojado para nuestra comunidad y esta es una preocupación que también surgió de mi parte, muchos sitios están implementando la verificación de identidad para evitar cualquier legalidad. Nuestra comunidad comenzará con una edad mínima de 16 años y estará alojada en el Reino Unido. Si bien esa es la ficción del informe para reportar algo ilegal, recuerdo que este es un servicio utilizado por adultos y debemos cumplir.

¿Vienen más herramientas para ayudar con esto o actualmente satisface los cambios en la ley?

¿Alguien ha conseguido que funcionen integraciones con servicios de verificación de edad?

1 me gusta