Mis à part la morale, je ne vois pas comment cela va fonctionner dans une petite communauté. Si les utilisateurs sont un tant soit peu férus de technologie, ils découvriront probablement ce qui se passe. Même une simple recherche Google sur « Discourse shadowban » les mènera directement à ce sujet.
C’est une référence importante !
Beaucoup de discussions intéressantes dans ce sujet, quelques idées principales différentes à considérer.
Avec Discourse, la fonctionnalité permettant de masquer/ignorer quelqu’un pourrait être considérée comme une forme de shadowban, mais uniquement pour un individu et pas pour les autres.
Avec le système de signalement de messages, cela n’honore pas nécessairement l’habeas corpus si les modérateurs agissent en réponse aux signalements alors que les personnes qui ont signalé quelque chose restent anonymes. Cependant, il est à la discrétion des modérateurs d’examiner les signalements, idéalement leurs décisions sont basées sur leur propre interprétation de ce qui est signalé plutôt que sur les rapports de signalement eux-mêmes.
Il y a une opportunité de diplomatie si un membre de la communauté choisit de s’identifier comme la personne qui a signalé quelque chose qui a été publié avec un signalement, que ce soit simplement parce que c’est hors sujet ou inapproprié, ou signalé pour une autre raison. Cependant, il y a alors un risque d’escalade vers une dispute qui ne pourrait rien accomplir d’autre que de contrarier les gens.
En général, la raison pour laquelle les plateformes peuvent mettre en œuvre des mesures de type shadowban pourrait être la désescalade/l’évitement des disputes/conflits, ce qui peut sembler raisonnable du point de vue de la gestion de communauté qui souhaite que tout le monde s’entende et soit d’accord sur tout. Cependant, lorsqu’il y a des désaccords légitimes sur quelque chose, il peut être préférable de laisser de l’espace aux gens pour exprimer pourquoi ils sont contrariés ou s’ils le sont, afin qu’ils soient mieux compris.
Cela a du sens de la manière dont vous décrivez cela, bien que tout le monde ne soit pas d’accord.
Pour le développement de fonctionnalités que vous avez publié dans Marketplace, est-ce pour une solution open-source ou juste spécifiquement pour votre cas d’utilisation ?
Voulez-vous dire que le client demanderait un remboursement ? C’est peu probable s’il ne sait pas qu’il est censuré. Et il serait contraire à l’éthique de continuer à accepter leur argent tout en les censurant à leur insu.
Si, en revanche, vous voulez dire que vous les rembourseriez, alors il n’y a aucun besoin de censurer secrètement cet utilisateur. Si son compte a été annulé, alors il n’a plus accès au service.
Vous présumez que les utilisateurs savent qu’ils sont shadowbannés, ce qui, d’après mes observations, n’est le plus souvent pas le cas. Les commentateurs actifs ignorent généralement lorsqu’ils sont shadowbannés.
Les shadow bans sont couramment utilisés sur de nombreuses plateformes majeures car les utilisateurs n’en sont pas conscients, ou pensent que cela ne leur arrive pas. Les utilisateurs perdent donc du temps à commenter pendant que les plateformes collectent des revenus publicitaires basés sur des nombres d’utilisateurs plus élevés, qu’elles obtiennent grâce à la tromperie.
Il semblait qu’ils voulaient dire qu’un remboursement serait accordé si quelqu’un découvrait qu’il avait été banni de l’ombre et demandait un remboursement pour cela, cependant, même si telle est leur politique, cela pourrait présenter un risque de poursuite si quelqu’un avait payé pour une plateforme où il pensait que les gens pouvaient lire ce qu’il publiait, mais il s’est avéré que c’était un mensonge.
Il semblait qu’ils voulaient dire qu’un remboursement serait accordé si quelqu’un découvrait qu’il avait été shadow-banné et demandait un remboursement pour cela, cependant, même si c’est leur politique, cela pourrait présenter un risque de poursuite si quelqu’un avait payé pour une plateforme où il pensait que les gens pouvaient lire ce qu’il publiait, mais il s’avère que c’était un mensonge.
Je suis d’accord avec vous sur le fait qu’il existe des risques à utiliser le shadow ban, que ce soit par le biais de poursuites judiciaires ou pour la crédibilité de votre entreprise.
Mais même sans procès, l’objectif ici était de déterminer si les shadow bans ont une quelconque utilité légitime, et non de démontrer comment tromper les clients pour leur argent. La réponse à la question de l’utilité légitime est encore plus simple lorsque vous parlez de clients payants. Vous cessez simplement d’accepter leur argent, aucun shadow ban n’est nécessaire.
Un cas d’utilisation potentiel pour un bannissement fantôme est pour/avec toute personne dont l’intention semble uniquement de perturber un site communautaire, de telle sorte que si elle est bannie ouvertement, elle voudra créer un nouveau compte indépendamment du bannissement.
Si l’on peut identifier qui essaie de faire cela, alors on pourrait simplement refuser d’approuver la demande de nouveau compte, c’est vrai.
Les bannissements fantômes ne défont pas les trolls, ils les renforcent. Le nombre de personnes qui consacreraient le temps nécessaire à contourner les bannissements est relativement faible, et ces acteurs de mauvaise foi déterminés sont plus susceptibles de découvrir les bannissements fantômes que l’utilisateur moyen de bonne foi. Même sur Reddit, qui dispose de techniques avancées pour identifier les comptes liés, les modérateurs se plaignent encore régulièrement dans r/ModSupport des utilisateurs qui contournent à la fois les bannissements et les bannissements fantômes. Ce que vous voulez, alors, ce ne sont pas des outils trompeurs, vous voulez développer des communautés dignes de confiance. Cela prend plus de temps, mais c’est mieux que de fonder une communauté sur la méfiance.
Lorsque vous introduisez des bannissements fantômes dans votre communauté, la confiance disparaît. Vous donnez donc du pouvoir aux trolls qui n’ont aucun scrupule à utiliser la tromperie pour “modérer”. Les trolls, maintenant en charge, finissent par évincer les utilisateurs de bonne foi qui n’imaginent jamais qu’un forum leur ferait cela. En d’autres termes, vous devenez le roi des trolls. Vous ne voudriez pas que quelqu’un supprime secrètement vos propres commentaires à votre insu, il n’est donc pas logique de le faire aux autres, ni de donner à d’autres le pouvoir de le faire.
Concernant les bots ou le spam, les bannissements fantômes ne trompent pas les bots, seuls les captchas trompent les bots. Les bannissements fantômes ne trompent que les vraies personnes.
Pour une communauté de confiance, il serait évident qu’un compte a été mis en sourdine.
Eh bien, pour une communauté digne de confiance, il serait évident qu’un compte a été mis en sourdine.
Ce n’est pas digne de confiance si vous utilisez des interdictions fantômes, mais pour l’amour de l’argumentation, à qui cela serait-il évident ? Pas à l’utilisateur secrètement mis en sourdine, ni à la communauté, puisque chaque membre ne commentera pas chaque sujet. Gardez à l’esprit qu’une interdiction fantôme est souvent appliquée à des commentaires individuels, pas nécessairement à un compte entier.
Eh bien, pour une communauté de, disons, vingt personnes, si elles communiquent en dehors de l’application de shadow ban, la plupart des gens réaliseraient en quelques jours que tout ce qu’ils ont écrit n’est pas publié.
En parlant au téléphone, on pourrait simplement demander : « Hé, as-tu vu le commentaire que j’ai écrit ? »
Eh bien, pour une communauté de, disons, vingt personnes, si elles communiquent en dehors de l’application de shadow ban, la plupart des gens réaliseraient en quelques jours que tout ce qu’ils ont écrit n’est pas publié.
J’en doute. Cette pratique a commencé avec les débuts d’Internet et a explosé pour devenir ce que vous voyez maintenant : des plateformes avec des milliards d’utilisateurs.
Quoi qu’il en soit, cela vaut la peine de faire des recherches. Quelqu’un devrait étudier l’impact des shadow bans. À ce jour, je n’ai pas vu une telle étude.
Cela relèverait de la catégorie de la modification/filtrage de commentaires, un « bannissement » signifiant une censure complète.
« Bannir » signifie simplement que quelque chose n’est pas autorisé. Cela peut être un mot-clé, un lien, un sujet, un compte, ou juste un commentaire ou un point de vue. Le terme « bannissement fantôme » a d’abord attiré l’attention du public dans le contexte de bannissements appliqués secrètement à des comptes entiers. Cependant, les plateformes omettent également de divulguer des tonnes d’actions contre des publications individuelles aux auteurs de ces publications.
L’aspect fantôme, où l’auteur d’une publication filtrée/ralentie/déclassée/supprimée ne sait pas que quelqu’un a agi contre son contenu, est en réalité la partie la plus importante, et ne devrait pas être omis. Je préfère le terme général « modération fantôme », cependant j’utilise souvent « bannissement fantôme » car beaucoup de gens ont déjà vu ce mot dans les actualités. Voir cet article du WaPo, par exemple, qui utilise le terme « bannissement fantôme » pour décrire des actions contre des comptes entiers et des publications individuelles.
Ok, je suis d’accord, cela peut être un problème. Avec Discourse, il appartient aux modérateurs de décider s’ils veulent informer quelqu’un que ses publications sont modifiées/supprimées par courtoisie ; il est généralement poli de le faire. Avec le système de signalement, il y a la notification automatique si une publication a été signalée, puis l’auteur a la possibilité de revoir/modifier la publication après un délai de « refroidissement » de dix minutes, c’est un système sophistiqué.
Avec des plateformes massives comme Google YouTube, les choses sont différentes. J’ai vu que si quelqu’un est banni d’une chaîne, cela signifie que ses commentaires sont censurés, mais qu’il n’en est pas informé.
avec Discourse, c’est aux modérateurs de décider s’ils veulent informer quelqu’un que ses publications sont modifiées/supprimées.
Oui, c’est à la plateforme. Je ne plaide pas pour une solution législative qui lierait les mains des plateformes. Cela donnerait simplement au gouvernement le pouvoir de censurer, ce qui est précisément ce que le premier amendement empêche. De plus, une solution législative pourrait ne pas s’appliquer aux services de médias sociaux dont le siège est à l’étranger. Ou si elle s’appliquait, elle pourrait être difficile à appliquer.
Avec des plateformes massives comme Google YouTube, les choses sont différentes. J’ai vu que si quelqu’un est banni d’une chaîne, cela signifie que ses commentaires sont censurés, mais qu’il n’en est pas informé.
Reddit et Twitter/X étaient autrefois petits, mais ils ont abordé ce sujet aussi, par exemple ici en 2007 :
Une meilleure idée est un bannissement silencieux. Laissez-le poster des commentaires, et montrez-lui ces commentaires, mais laissez-les simplement de côté pour tout le monde.
Ainsi, les plateformes ont peut-être grandi grâce à la modération fantôme. En l’utilisant, les plateformes induisent les utilisateurs en erreur en leur faisant croire qu’ils peuvent partager leurs points de vue sans être censurés. En réalité, les utilisateurs perdent leur temps à écrire pendant que les plateformes amassent des dollars publicitaires.
Vous utilisez le passé, mais Twitter/X le fait toujours en 2023.
Les différences linguistiques sont intéressantes, ou est-ce plutôt une question de culture, mais très largement seul l’État/le gouvernement peut faire de la censure. Jamais les parties privées. Et puis la modération, est-elle transparente ou dans l’ombre, ne fait pas partie de la censure et le terme censure est utilisé la plupart du temps seulement dans… un sens atténué.
Mais continuez, c’est un sujet intéressant et j’essaie de suivre.
Vous utilisez le passé, mais Twitter/X le fait toujours en 2023.
Oui, j’aimerais que les gens se concentrent sur cela. C’est-à-dire, comment le contenu est supprimé, plutôt que ce qui est supprimé. Ce serait un simple changement de code pour révéler les shadow bans existants, et le PDG a déjà promis de le faire il y a un an.
Le blocage, explique l’ancien responsable de la confiance et de la sécurité de X, Yoel Roth, dit, est que X doit également expliquer la raison du shadow ban aux utilisateurs. Il dit que comme ces explications sont dans des notes en texte libre qui n’ont pas été écrites pour les yeux du public, elles doivent d’abord être catégorisées avant que les gens ne puissent être informés de leurs shadow bans.
Je n’achète pas cette explication. Un « simple avis », comme décrit ici par un chercheur, est distinct des explications, et la nécessité de catégorisation n’est pas une excuse pour continuer à tromper les utilisateurs.
Chaque fois que je vois des gens déformer le PDG de X comme le nouveau champion de la liberté d’expression, j’essaie de clarifier les faits, mais je n’ai pas beaucoup d’abonnés. Personnellement, je ne pense pas que nous puissions compter sur un individu ou une organisation pour nous garantir la liberté d’expression. Nous devons chacun assumer cette responsabilité. Certes, nous devrions nous unir lorsque c’est possible, mais si vous attendez que quelqu’un d’autre protège votre parole, vous risquez d’être induit en erreur.