Loi sur la sécurité en ligne - Quelles nouvelles fonctionnalités seront disponibles ?

Bonjour à tous,

Je suis conscient que la loi sur la sécurité en ligne (Online Safety Act) est entrée en vigueur au Royaume-Uni en novembre 2023. Je me demandais si Discourse lançait de nouvelles fonctionnalités pour soutenir cette nouvelle loi et aider à rendre les communautés en ligne plus sûres pour les personnes de moins de 18 ans ?

Merci !

7 « J'aime »

:wave:
Une nouvelle option de signalement « C’est illégal » a été ajoutée.

5 « J'aime »

Puis-je avoir un lien pour examiner ? Curieux de voir ce qu’impliquent les changements au Royaume-Uni.

3 « J'aime »

Il y a une explication ici

3 « J'aime »

J’ai découvert une prochaine session de discussion qui pourrait intéresser les personnes intéressées par Discourse :

« Promising Trouble organise une session déjeuner avec Ali Hall et Andrew Park d’Ofcom pour discuter des nouvelles responsabilités en matière de sécurité en ligne pour les sites communautaires petits et à faible risque. »

Mercredi 12 février 2025 — 6h30 - 8h00 CST

Il y a des publications intéressantes sur ce sujet ici :

Je travaille actuellement sur la conformité à l’OSA (Online Safety Act).

Bien que la majorité du travail semble consister à documenter que l’organisation a pris en compte et tenté d’atténuer le risque de préjudices illégaux, je me demandais si quelqu’un avait développé une documentation partageable ou des outils automatisés pour aider à fournir une base de preuves d’une absence d’activité néfaste au sein de leur forum ?

Je pensais éventuellement à :

  • Des requêtes Data Explorer recherchant des mots-clés ou des modèles d’utilisation spécifiques ?
  • Des listes de mots surveillés qui pourraient améliorer le signalement des publications et des messages privés ?
  • Des configurations ou des invites de Discourse AI qui pourraient aider à signaler les activités préoccupantes ?
  • Des modèles pour des conditions d’utilisation améliorées « Approuvées par l’OSA britannique » ?
  • D’autres « astuces de sysadmin » pour maximiser l’efficacité des protections, avec un minimum de travail supplémentaire ?

Je suis aussi préoccupé que n’importe qui d’autre par les implications de tout cela en matière de confidentialité, mais en cas d’audit, nous devrions être en mesure de montrer que nous avons investi un effort approprié pour vérifier qu’aucune activité illégale n’avait lieu, et pouvoir présenter (et examiner) ces preuves chaque année.

Les mots surveillés semblent être une bonne idée, bien que ce soit évidemment un instrument grossier.

Je pourrais choisir de documenter un processus de vérification périodique de l’utilisation des messages d’utilisateur à utilisateur. Mais cela me convient car mes utilisateurs utilisent à peine cette fonctionnalité.
/admin/reports/user_to_user_private_messages

S’il y avait une augmentation de ces messages, cela pourrait indiquer un risque accru, et j’aurais besoin d’une réponse à cela. Je ne suis pas sûr de ce qu’il y a entre les extrêmes de :

  • les utilisateurs informeront les administrateurs si les messages sont problématiques
  • les administrateurs liront certains (ou tous) les messages pour vérifier qu’ils ne sont pas problématiques

Personnellement, je ne veux pas d’analyse automatisée qui aurait à la fois des faux négatifs et des faux positifs.

Je me concentrerais (me concentrerai) sur des déclarations simples qui positionnent mon forum comme un risque très faible sur tous les axes. La vérification proportionnée consiste donc à ne rien faire, ou si quelque chose, alors quelque chose de très minimal et facile. S’appuyer sur les drapeaux est simple et facile.

1 « J'aime »

Je viens de commencer à configurer un Discourse auto-hébergé pour notre communauté, et c’est une préoccupation que j’ai également soulevée. De nombreux sites mettent en place une vérification d’identité pour contourner les aspects légaux. Notre communauté débutera avec un âge minimum de 16 ans et sera hébergée au Royaume-Uni. Bien que la fonction de signalement permette de signaler des contenus illégaux, je me souviens que c’est un service destiné aux adultes et que nous devons être en conformité.

Y a-t-il d’autres outils à venir pour aider avec cela, ou cela satisfait-il actuellement les changements législatifs ?

Quelqu’un a-t-il réussi à intégrer des services de vérification d’âge ?

1 « J'aime »