Loi sur la sécurité en ligne (nouvelles règles de l'Ofcom)

Bonjour

Le gouvernement britannique prévoit de modifier les lois sur la sécurité en ligne et je me demandais quelles mesures Discourse prenait pour y remédier ou s’il existait une réponse suggérée pour toute personne hébergeant au Royaume-Uni ?

https://www.ofcom.org.uk/online-safety/illegal-and-harmful-content/time-for-tech-firms-to-act-uk-online-safety-regulation-comes-into-force/

Notre communauté examine cela, mais il ne m’est pas clair si la responsabilité nous incombe ou à Discourse, ce qui, en théorie, signifierait que chaque groupe WhatsApp ou serveur Discord devrait le faire.

Merci d’avance pour toute aide (j’ai vérifié mais je n’ai pas trouvé de fil récent à ce sujet)

1 « J'aime »

Du site web de l’Ofcom : « les entreprises sont désormais légalement tenues de commencer à prendre des mesures pour lutter contre les activités criminelles sur leurs plateformes »

Je pense que Discourse fournit déjà un moyen de lutter contre les activités criminelles grâce au drapeau « C’est illégal » pour alerter le personnel des activités illégales sur le site. Concrètement, à part mettre en place des mesures comme l’option de drapeau illégal, y a-t-il beaucoup d’autres choses qui peuvent être faites ?

7 « J'aime »

Oui, nous sommes dessus. Nous le surveillons depuis la majeure partie de l’année et nous sommes préparés.

Elle nous incombe à tous les deux. Nous fournissons les outils pour se conformer à l’OSA (car nous devons nous y conformer ici sur Meta), mais vous êtes responsable de la façon dont vous les utilisez.

Les principales considérations sont :

Nous avons cela avec le signalement de contenu illégal que @ondrej a posté ci-dessus, ce qui devrait vous inciter à utiliser les outils existants pour supprimer le contenu de manière conforme et à effectuer les signalements appropriés.

Comme ci-dessus – le signalement de contenu illégal ou d’autres types de signalements personnalisés sont disponibles pour vous. Nous apportons une modification afin que les utilisateurs non connectés puissent également signaler le contenu illégal. Avons-nous une date d’échéance pour cela @tobiaseigen ?

Vous devrez définir vos processus internes vous-même, mais les données sont toutes enregistrées afin que vous puissiez en rendre compte lorsque nécessaire.

Voir ci-dessus.

C’est à vous de créer cela.

C’est aussi à vous d’organiser cela.

C’est aussi à vous.

Et… aussi à vous.

11 « J'aime »

Pour toutes les choses qui nous incombent, avez-vous des processus et des textes suggérés ?

Par curiosité : comment le Royaume-Uni définit-il les fournisseurs de services de petite, moyenne et grande taille ?

1 « J'aime »

Je suis aussi intéressé, donc si quelqu’un peut le découvrir, j’aimerais le savoir aussi. Bien que je ne trouve pas de définition spécifique, il semble que les services de différentes tailles soient traités différemment des plus grands fournisseurs de services. « nous n’obligeons pas les petits services aux fonctionnalités limitées à prendre les mêmes mesures que les plus grandes entreprises. » Gov.uk, par. 6

1 « J'aime »

Le logiciel du forum peut-il facilement fournir une liste des actions des modérateurs sur une année ? Ou peut-être des actions des modérateurs filtrées par, par exemple, la réponse aux drapeaux ? Je ne voudrais pas avoir à tenir un registre séparé. (Parfois, je supprimerai un utilisateur à cause d’un drapeau - ce n’est pas une option lors de la réponse à un drapeau.)

1 « J'aime »

Non, et je crains qu’il soit peu probable que nous fournissions cela. Comme pour le RGPD, nous fournissons les outils pour se conformer, mais vous devrez demander votre propre avis juridique.

2 « J'aime »

Il y a une discussion sur HN ici (concernant un cas spécifique où une personne gérant 300 forums a décidé de tous les fermer) qui contient des informations utiles et des liens vers la documentation officielle.

D’après ce que j’ai compris, 700 000 utilisateurs actifs mensuels au Royaume-Uni constituent le seuil pour les moyens. 7 millions est le seuil pour les grands.

Notez que, je pense, certains aspects de la loi ne sont pas sensibles à la taille du service, tandis que d’autres le sont.

Pour en savoir plus, voir
(Projet) Codes de bonnes pratiques sur le contenu illégal pour les services d’utilisateur à utilisateur (lien ofcom)

Je pense qu’il s’agit d’un cas où le risque pour les propriétaires de forums est de faible probabilité mais de coût élevé. Le jugement individuel, la perception du risque et l’attitude face au risque seront en jeu.

2 « J'aime »

Merci. Donc, cela ne s’applique qu’à quelques-uns, dans toute sa puissance de toute façon.

Une de mes amies qui vit au Royaume-Uni est en partie la raison pour laquelle je suis curieux, car elle panique beaucoup à cause de cela.

Voici les directives d’évaluation des risques : https://www.ofcom.org.uk/siteassets/resources/documents/online-safety/information-for-industry/illegal-harms/risk-assessment-guidance-and-risk-profiles.pdf?v=387549

2 « J'aime »

Merci Hawk. (Je vois que le lien PDF renvoie à la dernière version, même s’il ressemble à un lien vers une version spécifique.)

Voici une description sensée (mais non officielle) de ce que les nouvelles lois pourraient signifier pour les forums auto-hébergés à petite échelle qui ne ciblent pas spécifiquement les enfants ou n’offrent pas de contenu pornographique. Le point principal, je pense, est de comprendre la loi et de documenter votre approche. À partir de là :

Devoirs

En tant que petit service d’utilisateur à utilisateur, l’OSA vous oblige à :

  • Évaluer le risque de contenu illégal (s9)
  • Prendre des mesures proportionnées pour atténuer les risques de contenu illégal que vous avez identifiés (s10(2)(c))
  • Prendre des mesures proportionnées pour empêcher les gens de rencontrer du contenu prioritaire (s10(2)(a))
  • Prendre des mesures proportionnées pour atténuer le risque que les gens commettent des infractions prioritaires (s10(2)(b))
  • Permettre aux utilisateurs de signaler facilement le contenu illégal et le contenu préjudiciable aux enfants, et de le supprimer (s20)
  • Permettre aux utilisateurs de se plaindre des signalements, des suppressions, etc. (s21)
  • « Accorder une attention particulière à l’importance de protéger le droit des utilisateurs à la liberté d’expression » (s22(2))

Vous n’avez pas à vous soucier outre mesure de ces devoirs directement – le processus d’évaluation des risques vous guide sur ce que vous devez faire pour vous y conformer.

2 « J'aime »

Désormais, tout le monde devrait disposer de toutes les informations nécessaires de la part d’Ofcom pour réaliser des évaluations des risques. Une fois votre évaluation des risques effectuée, vous aurez une liste des risques identifiés que vous voudrez peut-être atténuer. Je suis assez confiant que nous avons tous les outils en place, mais si quelqu’un n’est pas sûr, nous pouvons en discuter ici.

3 « J'aime »

Avez-vous une référence pour cela ? Nous avons effectué des recherches approfondies et n’avons rien trouvé qui définisse le nombre d’utilisateurs par « taille » (ce qui est honnêtement l’une de mes plus grandes plaintes concernant l’OSA telle qu’elle est écrite).

2 « J'aime »

J’ai également trouvé que l’une des choses les plus difficiles à déterminer. Je n’étais pas sûr si nous étions responsables de l’évaluation des risques sur Meta (en tant qu’administrateurs de la communauté), ou du risque lié à l’utilisation plus générale de Discourse (le risque pour nos clients).

Si c’était ce dernier cas, je ne savais pas dans quelle catégorie de taille cela nous placerait. Il s’avère que c’était le premier.

Ce que nous avons appris lors d’un séminaire, c’est que l’Ofcom a déjà contacté les plateformes qu’ils considèrent actuellement comme relevant d’une catégorie nécessitant plus qu’une auto-évaluation annuelle, et leur a fait savoir qu’elles devront soumettre officiellement leur évaluation. Si vous n’avez pas été contacté, vous pouvez supposer que vous êtes tenu de faire votre auto-évaluation, de compléter toute mitigation et de réévaluer annuellement ou lors de changements significatifs dans le périmètre. Vous devrez être en mesure de montrer votre travail d’évaluation si on vous le demande, mais vous n’avez pas besoin de le soumettre quelque part.

Mais notez que je suis aussi nouveau dans ce domaine que vous tous, donc s’il vous plaît considérez ceci comme mon avis, plutôt qu’un conseil en matière de conformité. Vous devrez faire vos propres recherches.

5 « J'aime »

Je viens de consulter le projet de lignes directrices actuel et il définit « grand » mais pas « moyen ». Cependant, il contient dans plusieurs endroits des notes pour les services comptant 700 000 utilisateurs, par exemple :

1 « J'aime »

Il y a eu un webinaire OfCom « Conformité Web pour les indépendants et les communautés » pour nos types de sites, voir ce lien pour les notes, les liens et les vidéos :

Salut @HAWK , je me demandais s’il serait possible d’avoir une page simple, unique (ou un post de forum) qui documente comment la fonctionnalité de Discourse aborde les problèmes soulevés ?

Actuellement, je pointe au cas par cas vers vos réponses dans ce fil de discussion, d’autres posts sur le signalement de contenu illégal, des administrateurs dans les canaux de discussion etc. dans le cadre de nos preuves, il serait peut-être un peu plus utile s’il y avait une page ‘officielle’ qui répertorie les fonctions principales que le produit lui-même apporte afin qu’elle puisse être référencée comme preuve ? Peut-être aussi utile pour les personnes qui examinent la plateforme d’avoir la confiance qu’elle répond aux exigences.

1 « J'aime »

Salut Ruth,
Je suis heureux de vous aider, mais j’ai d’abord besoin de clarifier quelque chose.

À quels problèmes faites-vous spécifiquement référence ? Ceux que vous avez identifiés dans votre évaluation des risques ? Si c’est le cas, n’hésitez pas à énumérer les éléments que vous essayez d’atténuer et je pourrai vous aider avec des suggestions d’outils.

Chacun aura des risques différents à atténuer et différents niveaux de tolérance à ces risques. En tant que tel, je ne peux publier aucune liste définitive. Par exemple, nous n’autorisons pas les enfants de moins de 13 ans sur Meta, nous n’avons donc pas besoin d’atténuer bon nombre des risques élevés concernant les enfants.

Si vous êtes d’accord pour partager votre évaluation, je serai heureux de l’utiliser comme exemple.

2 « J'aime »

Pour ceux qui ne savent pas par où commencer, cet outil vous guide tout au long du processus.

https://www.ofcom.org.uk/os-toolkit/assessment-tool/

3 « J'aime »