Les shadowbans nuisent au discours, et voici pourquoi

En anglais, n’importe qui peut censurer, privé ou public. Nous disons même que les gens peuvent « s’auto-censurer ».

Je soutiens ici que la véritable censure de l’ère numérique est la modération cachée. N’hésitez pas à commenter là-bas ou ici si vous êtes d’accord ou non.

1 « J'aime »

Oui et non.

  • Ces plateformes ont été soumises à un examen minutieux pour ne pas avoir supprimé certains messages.
  • D’un autre côté, je ne suis personnellement pas très satisfait du fait qu’une entreprise ou une personne étrangère puisse influencer notre démocratie en supprimant des messages selon ses propres règles.

Je suppose donc que ce serait un bon compromis. Mieux que tout ce qui précède.

1 « J'aime »

Je pense que nous sommes d’accord. Je soutiens le droit des plateformes à supprimer ce qu’elles veulent, y compris les messages d’utilisateurs se plaignant de contenu censuré. Cependant, elles devraient en informer les auteurs des messages supprimés.

Oui, au niveau national, le risque partagé est évident. Mais il est également apparent au niveau local. Imaginez que votre association de propriétaires ait un groupe de discussion, et que vous écriviez un commentaire critique à l’égard de sa direction ou de ses cotisations. Si le chef de ce groupe peut supprimer secrètement votre commentaire, il peut alors mener une campagne contre vous. Et ses critiques à votre encontre sembleront précéder vos critiques à son encontre, vous faisant passer pour l’enfant. Est-ce que cela a du sens ?

Le fait est que vous ne voulez pas de ce type de modération de contenu nulle part, ni dans les groupes communautaires, ni dans les groupes scolaires, et encore moins sur les plateformes mondiales. Pourtant, c’est notre réalité actuelle. Et malgré les préoccupations généralisées concernant les médias sociaux, je n’ai pas encore réussi à convaincre une organisation établie de défense des droits civiques ou de la liberté d’expression de s’exprimer publiquement contre l’utilisation de la modération fantôme.

C’est trop simpliste, mais j’imagine deux groupes, les technologues et les experts en liberté d’expression, qui détiennent chacun une expertise importante, mais qui manquent chacun de l’expertise de l’autre.

(1) Les technologues croient à tort que la censure est le bon moyen de traiter avec les trolls.

(2) Les experts en liberté d’expression croient à tort que les interdictions fantômes sont nécessaires pour traiter avec les bots.

D’une manière ou d’une autre, le fossé entre les deux doit être comblé afin qu’ils puissent bénéficier de l’expertise de l’autre.

1 « J'aime »

Je vais passer car nous devrons alors tracer des lignes si la désinformation, la mésinformation et les fantasmes des usines à trolls doivent être autorisés au nom de la liberté d’expression. Et nous nous écarterons alors fortement de l’objectif de cette plateforme, alias, hors sujet.

1 « J'aime »

Pas de problème. « Les usines à trolls » semble être un bon terme pour les plateformes de médias sociaux qui manipulent secrètement les conversations des autres. :rire:

C’est un scénario intéressant que vous décrivez ici. Cela relève de la manipulation sociale trompeuse, qui peut créer toutes sortes de problèmes et de malentendus.

Je ne suis pas amusé. En partie parce que notre frontière orientale sera fermée dans trois heures. Et une grande usine à trolls vient de dire sur X que cela se produit parce que l’OTAN a pris le contrôle de la Finlande et prévoit une attaque sournoise. Mais bon, cela ne devrait pas être censuré au nom de la liberté d’expression.

« Usine à trolls » est un terme valable. Ne le saviez-vous pas ?

Et je quitte ce sujet.

1 « J'aime »

Je m’excuse pour la blague, mais je n’ai rien dit qui ne devrait pas être censuré. J’ai dit que la censure secrète donne du pouvoir aux fermes de trolls au point où elles contrôlent les plateformes, ce qui semble être ce que vous décrivez. Nous avons besoin de transparence pour que tout le monde soit sur la même longueur d’onde.

1 « J'aime »

Oui, une multitude de manipulations sont rendues possibles lorsque l’on admet même une utilisation « exceptionnelle » des interdictions déguisées. J’ai rencontré d’innombrables personnes intelligentes qui pensent qu’une utilisation exceptionnelle du secret contre des alliés est acceptable. Pour être clair, c’est le mode de pensée prédominant dans le monde de la modération de contenu au sein des entreprises de médias sociaux, parmi les universitaires, et même dans certaines grandes institutions qui prétendent soutenir la liberté d’expression.

Les gens ont également des droits à la vie privée ainsi qu’à la liberté d’expression dans de nombreux pays.

Pour les articles universitaires évalués par des pairs et les publications imprimées légitimes, ceux-ci doivent être examinés avant d’être publiés, cela ne signifie pas que les gens n’ont pas le droit de s’exprimer librement.

Tout ce que je dis, c’est qu’il y a des gens qui étudient la modération de contenu, mais ils n’étudient pas l’impact de la modération cachée ou non divulguée. C’est une énorme lacune dans la recherche.
Vous avez raison de souligner que les gens sont libres d’étudier ce qu’ils veulent. À mon avis, le manque de recherche sur la modération cachée est une omission flagrante et une énorme opportunité pour tout chercheur de s’en emparer.

1 « J'aime »

Bien sûr, il y a une opportunité de recherche là-bas, mais si les données sont dissimulées au public, les études ne seront pas exactes sans enquêtes demandant aux gens de rapporter leur expérience avec les shadow-bans, mais comme vous l’avez mentionné, ils ne savent peut-être même pas que cela se produit.

Quoi qu’il en soit, cela irait au-delà de ce pour quoi ce site de support est destiné, à moins qu’il ne soit spécifiquement axé sur l’application Discourse.

Étant open-source pour des sites indépendants, il n’est pas dans la même catégorie que d’autres applications à système fermé.

2 « J'aime »

Pas nécessairement. Un chercheur pourrait créer des outils pour suivre ce qui a été supprimé ou modifié. C’est déjà possible sur Reddit, comme je le démontre avec le site web et l’extension Reveddit. D’une manière générale, une extension devrait toujours être capable de suivre les sections de commentaires visibles publiquement et ordonnées par date. Et les forums publics pourraient être le lieu où se déroule la majeure partie de la manipulation cachée, car c’est le contenu le plus visible et donc le plus partagé.

De plus, on pourrait également publier des recherches basées sur des entretiens avec des personnes qui pensent à la modération cachée sur diverses plateformes. Il n’est pas nécessaire de savoir ce qui a été supprimé pour publier une recherche. Savoir comment cela est fait suffit à apporter quelque chose d’intéressant.

Ceci est un forum de discussion générale sur la modération communautaire. Je ne pense pas qu’il soit hors sujet de discuter de la recherche sur la modération de contenu.

Je ne dirais pas cela. Quelqu’un qui utilise un logiciel open-source peut ajouter du code supplémentaire que vous ne connaissez pas. Il n’y a aucune garantie qu’il exécute le code source d’origine. La meilleure façon d’avoir une communauté digne de confiance, à mon avis, est de déclarer que vous n’utilisez pas la modération cachée et d’être transparent sur toutes les actions de modération envers les auteurs de contenu.

4 « J'aime »

C’est un bon point de départ pour faire une déclaration.

Wombat déclare par la présente, sous peine de parjure, ne pas pratiquer la modération fantôme.

2 « J'aime »

Si l’on peut prouver qu’un individu ou une organisation spécifique est à l’origine de ces actions, vous pouvez leur envoyer une mise en demeure stipulant que s’ils ne cessent pas, des poursuites judiciaires pourront être engagées pour harcèlement/perturbation, ou simplement pour utilisation de services web sans autorisation. Les gens peuvent être poursuivis pour cela.

1 « J'aime »

Cela ne fonctionne que si vous êtes nommé, pas anonyme. L’anonymat a sa place pour contester la politique existante, mais nous attendons de connaître les noms des personnes qui gèrent des forums que nous considérons comme dignes de confiance.

L’anonymat dans ce cas est dû à la suspension du compte plutôt qu’au souhait de l’auteur de rester anonyme.

1 « J'aime »

Le nom précédent du compte était toujours anonyme ; ce n’était pas un vrai nom. De plus, nous ne savons pas quel forum il gère. Si quelqu’un veut faire la déclaration qu’il n’utilise pas de modération fantôme, il devrait le dire là où les gens connaissent son identité et son affiliation.

Cela ne signifie pas que tous les utilisateurs doivent être identifiés, mais simplement que le nom du gestionnaire du forum doit être connu afin que quelqu’un puisse être tenu responsable de l’alignement ou du désalignement du site avec son comportement déclaré. Par exemple, les lettres de Ben Franklin « Mrs. Silence Dogood » ont été publiées anonymement dans un journal dirigé par son frère. Le Fédéraliste et les Lettres de Caton ont également été publiés anonymement mais diffusés par des journaux de bonne réputation. Vous pouvez donc toujours autoriser l’anonymat et des contributions précieuses au discours à condition que quelqu’un mette son nom derrière la distribution.

3 « J'aime »

L’auteur du commentaire a demandé à être anonymisé.

Il est parfois préférable que les suspensions et les silences ne soient pas visibles par les comptes non administrateurs. Cependant, chaque propriétaire de communauté doit décider quelle philosophie fonctionne le mieux. Pour la perception du public

Les suspensions n’anonymisent pas les comptes, c’est le fait une équipe du forum, souvent à la demande de l’utilisateur.

3 « J'aime »

Voici mon dernier article sur les bannissements fantômes. J’espère qu’il vous plaira !

Les bannissements fantômes ne trompent que les humains, pas les robots

Les plateformes ont longtemps soutenu que le bannissement fantôme est nécessaire pour lutter contre le spam, mais les bannissements fantômes ne trompent pas les robots. Étonnamment, il s’avère que lorsque les plateformes parlent de « spam », elles font référence au contenu écrit par vous et moi, les utilisateurs authentiques. Mais elles n’ont pas été transparentes sur cette définition.

4 « J'aime »