J’ai lu des articles encourageants ici sur le sujet de la modération, comme celui de @codinghorror ici[1], et je voulais apporter ma contribution.
Les récentes révélations de Twitter[1] ont relancé le débat sur l’utilisation d’outils de modération similaires au shadowban. Sont-ils bons ou mauvais pour le discours ? Avec ce post, j’espère susciter un débat entre les modérateurs et les utilisateurs sur l’utilisation des shadowbans.
Mon hypothèse est que la modération transparente favorise une base d’utilisateurs préparée où les modérateurs et les utilisateurs se font confiance, et que la modération fantôme crée plus de problèmes qu’elle n’en résout. J’affirme donc que des choses comme le shadowban ne devraient jamais* être utilisées, même pour des forums “petits” comme les installations Discourse.
À propos de moi
Je suis l’auteur de Reveddit, un site qui montre aux Redditors leur contenu secrètement supprimé. Reveddit a été lancé en 2018 et depuis, je me suis exprimé sur Reddit[1], Hacker News[1] et plus récemment Twitter[1] sur mon opposition à l’utilisation généralisée d’outils similaires au shadowban, que j’appelle la modération fantôme. Au cas où il y aurait un doute sur le fait qu’une forme de modération fantôme se produit sur toutes les plateformes les plus populaires, veuillez également consulter mon discours pour Truth and Trust Online 2022[1], diapositives 8-9 à 5:50, ou mon apparition sur Using the Whole Whale[1]. S’il y a un doute sur le fait que cette pratique est impopulaire auprès des utilisateurs de tous horizons, veuillez consulter les réactions de milliers d’utilisateurs dans la FAQ de Reveddit[1].
Préface
Pour référence, voici quelques définitions existantes du comportement similaire au shadowban :
- “rendre délibérément le contenu de quelqu’un indétectable à tous sauf à la personne qui l’a posté, à l’insu de l’auteur original”. - Blog de Twitter[1]
- “Un utilisateur hellbanned est invisible pour tous les autres utilisateurs, mais surtout, pas pour lui-même. De son point de vue, il participe normalement à la communauté mais personne ne lui répond jamais. Il ne peut plus perturber la communauté car il est effectivement un fantôme.” - Coding Horror[1]
Et voici deux définitions de ma part :
-
Modération transparente : Lorsque les utilisateurs sont informés des actions entreprises contre leur contenu.
-
Modération fantôme : Tout ce qui dissimule les actions des modérateurs à l’auteur du contenu actionné.
Notez que lorsque les plateformes parlent de transparence, elles signifient simplement qu’elles définissent clairement leurs politiques. Ce n’est pas la même chose que la modération transparente.
Et pour être clair, je soutiens l’utilisation d’une modération transparente. Je ne soutiens pas l’intervention gouvernementale dans les médias sociaux pour imposer la transparence aux plateformes, comme tentent de le faire le PATA[1] aux États-Unis ou le DSA[1] en Europe (Platform Accountability and Transparency Act et Digital Services Act, respectivement). Par conséquent, j’accepte également le droit légal des plateformes de s’engager dans la modération fantôme.
L’argument en faveur de la modération transparente
L’argument en faveur de la modération transparente est mieux défini comme un argument contre la modération fantôme.
La modération fantôme va à l’encontre de l’habeas corpus, un concept vieux de mille ans selon lequel l’accusé a le droit de faire face à son accusateur. Les valeurs de l’habeas corpus sont consacrées dans la Constitution américaine sous forme d’amendement (le 6e), mais c’est aussi une dignité fondamentale que nous attendons pour nous-mêmes et que nous devrions donc accorder aux autres. En termes simples, les punitions secrètes sont injustes.
Maintenant, vous pourriez dire : “mais ce sont des plateformes privées !” En effet, elles le sont. Pourtant, dans le privé, nous nous efforçons toujours de respecter certains idéaux, comme l’explique Greg Lukianoff de FIRE ici.
John Stuart Mill a plaidé la même chose dans De la liberté où il écrivait : “La protection, par conséquent, contre la tyrannie du magistrat ne suffit pas : il faut aussi une protection contre la tyrannie de l’opinion et du sentiment dominants.”[1]
Maintenant, vous pourriez dire : “Nous en avons besoin pour gérer le spam des bots !” Cela ne fonctionnera que pendant un court laps de temps. À long terme, les bots découvriront comment vérifier la visibilité de leur contenu, tandis que les utilisateurs ne le feront la plupart du temps pas. Par conséquent, la modération transparente fonctionnera tout aussi bien pour les bots, et la modération fantôme ne nuit qu’aux individus authentiques.
Peut-être direz-vous : “Je ne l’utilise que sur un petit forum.” Et là, je demanderais, est-il vraiment nécessaire de recourir à la tromperie ? Se familiariser avec la modération fantôme sur une petite installation Discourse peut être un tremplin vers son soutien sur des plateformes plus grandes, et le préjudice y est clair pour moi. Tous les aspects de chaque problème, dans toutes les zones géographiques et sur toutes les plateformes, sont touchés. Plus de 50 % des Redditors ont des commentaires supprimés au cours de leur dernier mois d’utilisation. Cela interrompt un nombre incalculable de conversations, peut-être par peur de ce qui se passera si la haine est “libérée”. Mais Reveddit existe depuis quatre ans, et cela ne s’est pas produit. Au lieu de cela, ce que j’ai observé, ce sont des communautés plus saines, et je cite de nombreux exemples de cela dans mon discours.
La modération fantôme à grande échelle renforce également votre adversaire idéologique. Les groupes que vous considérez comme incivils sont plus susceptibles d’utiliser la modération fantôme de manière incivile. Tous les avantages que vous avez lorsque vous êtes en position de pouvoir mettre en œuvre de tels outils s’éroderont avec le temps. Et tant que vous utiliserez la modération fantôme, vous ne gagnerez pas les arguments sur son utilisation ailleurs.
À ma connaissance, peu de recherches ont été menées pour étudier les effets de la modération fantôme. Je connais une étude qui indique que la charge de travail des modérateurs diminue à mesure que la transparence augmente[1]. Pourtant, nous savons que les sociétés ouvertes prospèrent par rapport à celles qui sont fermées.
Laissée sans contrôle, la modération fantôme crée des groupes tribaux isolés qui ne sont pas préparés aux conversations du monde réel où de telles protections ne sont pas disponibles. Cela peut conduire à des actes de violence ou d’automutilation, car le préjudice infligé par les mots est réel lorsque nous ne parvenons pas à accepter les limites de ce que nous pouvons contrôler. Nous pouvons plutôt choisir de répondre à la haine par des contre-discours, et encourager les bases d’utilisateurs à faire de même.
Enfin, la nouvelle législation ne peut pas résoudre ce problème pour nous. Toute loi de ce type porterait atteinte à nos libertés individuelles et aurait pour conséquence involontaire soit (a) de renforcer l’entité même contre laquelle le projet de loi sur les droits a été conçu, soit (b) de ne pas fonctionner, car il n’y a aucun moyen d’imposer la transparence sans donner au gouvernement l’accès à tout le code. Vous êtes donc soit de retour à la case départ, soit dans une situation pire qu’au début. Le soutien à l’habeas corpus et donc au discours civil est mieux atteint par un soutien culturel à une modération réellement transparente. Tout ce qui est moins que cela serait un pansement recouvrant une plaie purulente.
Conclusion
En conclusion, il ne faut pas adopter la position : “il le fait, donc je dois le faire pour être en concurrence sur un pied d’égalité”. Considérez plutôt que vous pourriez tous deux avoir un mauvais pied d’égalité. Les installations Discourse et autres forums qui n’utilisent pas la modération fantôme ont une base plus solide. Leurs bases d’utilisateurs sont préparées, les modérateurs et les utilisateurs se font confiance, et par conséquent, tous deux se sentent libres de parler ouvertement et honnêtement. Et, compte tenu de l’utilisation généralisée de la modération fantôme, il est maintenant plus important que jamais de soutenir vocalement la modération transparente.
Annexe
Une utilisation de la modération fantôme sur Twitter, qui n’a pas encore été signalée, peut se produire lorsque les Tweets sont automatiquement masqués en fonction de mentions de certains liens. J’ai découvert cela lorsque j’ai partagé un lien vers mon nouveau blog pour lequel j’avais acheté un domaine bon marché à 2 $/an avec le TLD .win. Après l’avoir partagé via Twitter, j’ai remarqué que mes tweets apparaissaient pour MOI mais PAS pour les autres. Par exemple, ce tweet[1] ne montre pas la réponse de ma part, même en cliquant sur le bouton “Afficher les réponses supplémentaires”. Pour voir ma réponse, il faut accéder directement au lien[1]. En effet, cette réponse n’est visible par personne qui ne me connaît pas déjà, et le système me dissimule ce fait pendant que je suis connecté.
* La seule circonstance dans laquelle je pense que la censure généralisée est utile est lorsque la société a oublié ses méfaits. Dans ce cas, elle revient inévitablement, ne serait-ce que pour nous rappeler une fois de plus ses effets délétères.