Curieux de connaître le point de vue de Discourse sur la sécurité numérique en ligne.
En tant que propriétaires de plateformes, et en autorisant le contenu généré par les utilisateurs, je pense qu’il y a une obligation de maintenir le web en sécurité. Surtout lorsqu’il s’agit de supprimer le contenu généré par les utilisateurs en vertu de la loi.
Par exemple, un exemple de sécurité numérique en ligne avec le contenu généré par les utilisateurs est la loi australienne sur le matériel violent odieux où le contenu odieux, inapproprié, etc. doit légalement être retiré des plateformes.
Je me demandais donc si c’était à chaque instance individuelle de Discourse de mettre en œuvre des efforts en matière de sécurité numérique en ligne ? Il me semble que ce serait quelque chose qui rendrait le web meilleur et plus sûr. Je cherche juste à avoir une discussion ouverte à ce sujet.
Contenu généré par les utilisateurs : images, photos, informations biographiques fournies par l’utilisateur, créations en jeu, diffusions en direct, audio, vidéo, GIFs, applications, commentaires, texte et informations basées sur la localisation.
Puisque Discourse est utilisé dans le monde entier et que les lois diffèrent partout, je pense que tout ce que Discourse (le logiciel) peut faire est de s’assurer que tous les mécanismes techniques sous-jacents sont en place, comme :
rendre une adresse e-mail de contact de l’administrateur disponible
donner aux modérateurs et administrateurs les outils pour modérer, masquer et supprimer du contenu
donner aux utilisateurs les outils pour signaler du contenu inapproprié ou illégal
donner aux modérateurs et administrateurs les outils pour bannir des utilisateurs et bloquer des plages d’adresses
La réponse de Richard couvre pratiquement tout, je peux ajouter un peu ici, ce qui répète plus ou moins la réponse de Richard avec d’autres mots.
Discourse peut être utilisé de manière conforme aux lois en vigueur, mais le logiciel lui-même n’est ni conforme ni non conforme. Si vous hébergez Discourse pour des utilisateurs relevant de la loi australienne ou, par exemple, du RGPD, vous devrez le faire d’une manière conforme.
Et comme Richard l’a souligné, nous avons passé beaucoup de temps à nous assurer de vous fournir tous les outils nécessaires pour le faire facilement (annulation d’utilisateur, anonymisation d’utilisateur, etc.).
Merci @RGJ et @osioke pour vos réponses ! Il semble que cela dépende vraiment de la façon dont chacun utilise Discourse. Peut-être que vous n’avez pas d’utilisateurs australiens et que vous n’avez pas à vous en soucier, ou peut-être que vous n’hébergez pas dans l’UE et que vous devez être conforme au RGPD.
Discourse est vraiment excellent pour signaler et fournir les outils dont les modérateurs ont besoin, je suis 100% d’accord. Vous deux avez répondu à ma question initiale, merci !
Mais j’ai une question de suivi concernant :
En tant qu’administrateur ou modérateur, je peux supprimer un message ou une réponse, mais il apparaît dans le fil comme “1 réponse masquée” pour les administrateurs et les modérateurs. J’étais curieux car, dans le cas de contenu illégal, la suppression du contenu du serveur est également attendue après que certaines analyses aient été effectuées (comme le nombre de personnes qui l’ont peut-être vu, combien de temps il a été en ligne, etc.). Je me demandais s’il existait des moyens dans l’interface utilisateur de supprimer entièrement le contenu masqué du serveur ? Ou est-ce qu’une solution programmatique utilisant l’API de Discourse est la bonne approche ?