Toutes les plateformes passées et actuelles partagent des échecs de modération.
Dans une communauté idéale, la modération se ferait au niveau individuel, en interne, sans besoin de membres d’autorité ou de systèmes de signalement… Cependant, l’humanité n’a pas atteint ce niveau d’illumination.
Mettre en place des contrôles neutres pour aider à réduire les biais personnels dans la modération est essentiel. Comme le démontre souvent le gouvernement sans contrôles ou après des audits réfléchis en raison du manque de contrôles. Souvent, le pouvoir corrompt même les individus les mieux intentionnés. Bien que pas tous.
Mais Tolkien a dit que même les cœurs les plus purs finiraient par être corrompus par l’unique anneau.
Retirer la tentation, c’est supprimer la possibilité de faillir.
J’ai connu les réseaux Fido à l’époque des BBS sous DOS. L’histoire se répète parce que nous n’apprenons pas du passé et que nous limitons notre avenir par une vision tunnel.
Je ne me sentirais pas ignoré. L’une des grandes forces de Discourse est que, la plupart du temps, tout peut être accompli d’une manière ou d’une autre.
Et il a été prouvé au fil du temps qu’une idée autrefois opposée par les développeurs peut finir par avoir suffisamment de mérite pour être intégrée au cœur du système.
Il est cependant parfois intéressant de voir à quelle fréquence une idée peut être rejetée, jusqu’à ce qu’elle démontre clairement sa propre valeur.
Pour être honnête, je n’aime vraiment pas la modération bénévole bâclée de Reddit ni son système de karma. YouTube avait autrefois un système raisonnable , maintenant il ne montre que les votes positifs, les votes négatifs sont cachés.
À la base, les modérateurs sont évalués par la communauté lors d’un rapide coup d’œil.
Certaines entreprises font évaluer leurs employés par leurs superviseurs et, sur la base d’un certain nombre d’évaluations d’employés combinées à l’évaluation du responsable du superviseur, cela se combine en quelque sorte.
Ce n’est vraiment pas un mauvais système pour favoriser la croissance tant au niveau des membres que des modérateurs.
À plusieurs reprises, des membres m’ont contacté au sujet d’une action de modération à laquelle j’ai participé et m’ont fait part de leurs commentaires lorsqu’ils estimaient que j’avais été injuste. Et ils ont eu gain de cause… J’ai donc, en toute responsabilité, présenté des excuses aux personnes concernées et à la communauté, en acceptant et en reconnaissant ma faillibilité. - Cela confère de la crédibilité à un modérateur en démontrant que nous sommes tout aussi humains.
Ed, si ma mémoire est bonne, n’y avait-il pas un plugin qui permettait de voter pour que des personnes deviennent modérateurs ?
Avant, c’était peut-être un peu risqué. Mais avec des modérateurs de catégorie moins puissants, ce n’est peut-être pas un si grand risque. Ça fait un moment, mais je me souviens d’une sorte de plugin…
Un peu d’après un rapide coup d’œil. Celui-ci.
Il n’est pas utilisé de la manière d’élire des modérateurs. Ce qui est une bonne chose car le poste de modérateur complet est une position à accorder avec prudence si votre entreprise, en tant qu’administrateur, autorise une telle discrétion.
Je voulais créer un site d’actualités avec inévitablement des sujets politiques.
Initialement, je serais le seul administrateur/modérateur.
Je craignais de passer beaucoup de temps à modérer.
Les signalements des utilisateurs seraient d’une grande aide, mais aussi un obstacle (faux signalements).
Si des utilisateurs avaient des opinions politiques diamétralement opposées, ils pourraient tenter d’utiliser le système de signalement comme une censure d’une opinion avec laquelle ils n’étaient pas d’accord.
L’intégrité des signalements serait d’une grande aide.
Si les utilisateurs qui font de faux signalements recevaient un poids négatif. Après un certain nombre de faux signalements, leur signalement pourrait être sans poids.
Les signalements corrects un poids positif… ce qui donnerait plus de crédibilité à leurs futurs signalements.
L’intégrité des signalements serait utile dans mon cas.
Si vous avez des équipes de modérateurs, moins.
Je n’avais même pas envisagé que les messages des modérateurs soient signalés. Cela semble être un cas limite.
Aussi, comme je n’ai reçu aucun “like” pour ma suggestion initiale jusqu’à ce que le message initial m’en donne un ( merci), c’est probablement aussi un problème/solution de cas limite.
Je suis amusé, ou peut-être attristé, par le nombre de détails exposés dans ce fil de discussion qui sont des exemples de mes tentatives de lancer une discussion sur les mécanismes généraux dans les sociétés / la sociologie de la communauté numérique… et ainsi d’isoler la cause, l’effet, les réponses hypothétiques, les guides de conception et les modèles / anti-modèles.
Les domaines problématiques bien compris peuvent avoir des solutions simples (degré élevé de cohérence à l’avance). Les domaines compliqués ont nécessairement de nombreux composants qui, avec soin et précision, mènent à des solutions mais sont normalement fragiles. Les domaines complexes représentent des cas où la vision de la pertinence et des composants pertinents n’a pas été isolée et nécessitent donc une approche exploratoire - la cohérence ne peut être détectée qu’a posteriori - [C’est l’observation qui se situe au cœur philosophique du mouvement de développement logiciel agile et qui génère ainsi des artefacts concrets tels que le standup quotidien ou le propriétaire du produit avec un backlog qui est organisé sur la base des besoins des utilisateurs]
Si un système de modération est mis en place avec seulement la capacité de traiter le simple, il n’y a jamais l’opportunité de faire passer le complexe, par la compréhension, au-delà du compliqué et dans le domaine du simple.
Je suis sûr d’avoir lu quelque part des aspirations concernant la communauté en ligne de nouvelle génération au sein de meta, mais je vois actuellement cela comme étant empêché par la position de modération. Le mécanisme d’intégrité du drapeau peut avoir une pertinence, mais il est probablement dans la catégorie compliqué / fragile. Un autre composant pertinent serait la liberté de discuter des moteurs sociologiques qui ne sont pas encore assez clairs pour être mis dans un fil de discussion très cohérent, mais qui y parviendraient à l’avenir.
De rien, même si nos idées ont peut-être des directions différentes. Mais elles sont aussi liées.
Les sujets politiques, tout comme nous en faisons l’expérience ici avec différents points de vue et philosophies sur la manière d’atteindre des objectifs/fins similaires. Cela crée des problèmes d’alignement.
Il y a une sorte d’intégrité de drapeau basée sur la façon dont un modérateur résout un drapeau.
Par exemple. Les drapeaux qu’un modérateur approuve concernant un utilisateur particulier maintiendront son score de drapeau à 100 %.
Si vous avez un utilisateur, par exemple, avec lequel vous n’êtes presque jamais d’accord sur ses drapeaux, son score de drapeau diminue en %.
Sur le forum où je suis administrateur bénévole, nous avions un troll très dévoué qui publiait des tonnes de liens vers d’autres messages sur le forum en tant que nouvel utilisateur. Le système signalait alors le nouvel utilisateur et tous les messages liés. Seul le nouvel utilisateur en question posait problème.
Cependant, nous devions alors être en désaccord avec tellement de faux drapeaux émis par le système que le score de drapeau du système est tombé à 50 %.
Donc les modérateurs sont incités à trouver des choses à critiquer. C’est un mécanisme mémétique qui explique probablement une partie de la culture de meta et par extension par la loi de Conway d’autres communautés et peut provenir de reddit et source-quelque chose (forge ?) dont j’ai entendu dire qu’ils peuvent être plus pénalisants que gratifiants.
Cela explique aussi pourquoi un message que j’ai écrit avait l’utilisation du mot « catholique » avec un c minuscule ET cité entre guillemets simples - Ce qui signifie illustratif de la riche variété de la vie - a été traité comme si j’avais écrit le mot Catholique avec un C majuscule qui est une référence à une religion.
Vous obtenez les comportements que vous incentiver, que ce soit explicitement ou comme conséquences involontaires.
Les serveurs Discord utilisent généralement une catégorie/un canal de déversement avec peu ou pas de modération, un canal « Free4all » qui n’est pas visible publiquement, nécessitant soit une preuve d’âge, soit une demande d’accès pour un utilisateur. Bien que généralement une preuve d’âge sur Discord.
Discourse Meta, avec l’ouverture d’être extensible grâce aux #plugins et aux Theme component, est une approche très positive et une très grande raison de son succès.
Garder des discussions ouvertes sur les philosophies est également essentiel avec des débats sains de points de vue différents. Ce n’est que lorsque les débats sont mal interprétés et fermés qu’ils peuvent ralentir les choses.
Il existe un système d’intégrité des drapeaux. Cependant, il est déséquilibré lorsqu’il n’y a pas d’autre option que de surveiller pour s’assurer que les cas où la sélection des modérateurs n’est pas, oserais-je dire, entre des mains compétentes. Je ne parle que de mon scénario et des autres qui sont dans une position d’administrateur plus en tant que contrôle de maintenance/conception. Où une entreprise décide qui devient modérateur et s’appuie sur des contrôles système plutôt que sur l’intégrité personnelle.
C’est une déclaration très générale, qui ne tient peut-être pas compte du fait que les technologues et les politiciens sont des personnes qui créent des problèmes, pas seulement qui les colmatent et/ou les résolvent.
Un problème diabolique, c’est une bonne expression.
L’un de ceux-ci peut certainement concerner les drapeaux de discussion, s’ils sont mal utilisés ou ignorés.
Très diabolique peut être un problème où l’on signale qu’il y a un problème avec quelque chose à quelqu’un d’autre. L’autre personne répond : eh bien, vous devrez parler à cette autre personne là-bas à ce sujet.
L’un va parler à cette autre personne du problème, et elle a la même réponse : vous devrez retourner parler à cette autre personne à qui vous venez de parler à ce sujet.
Réponse : « Je viens de leur parler, ils m’ont dit que je devais vous parler ! »
Puis répondez à cela : « Eh bien, peut-être devriez-vous aller en thérapie pour vous aider avec ça alors. »
Le thérapeute vous dit : Tout ce que vous dites doit rester confidentiel, je ne suis pas autorisé à vous aider avec vos problèmes.
Le système de modération de Discourse dispose d’un système de pondération qui fonctionne de la manière que vous décrivez. La probabilité qu’un message signalé soit masqué est basée sur la fiabilité des signalements précédents de l’utilisateur. Le score est déterminé par le pourcentage de fois où les signalements d’un utilisateur ont été approuvés par un membre du personnel.
Je ne pense pas que le système de pondération des signalements soit documenté sur Meta. L’un de mes objectifs pour la semaine à venir est d’essayer de le documenter.
Edit : j’ajoute simplement une note que ce sujet fait un bon travail pour documenter comment les signalements sont pondérés en fonction des signalements antérieurs d’un utilisateur : Managing user reputation and flag priorities.
Je crois que les paramètres hide post sensitivity et high trust flaggers auto hide posts peuvent être réglés pour augmenter ou diminuer la sensibilité de la dissimulation des drapeaux.
Pour réitérer les points de @JammyDodger, je ne pense pas que ce sujet appartienne à la catégorie Community. C’est une catégorie pour les discussions sur le lancement, la construction, la croissance et la gestion de communautés. Mon hypothèse est que la catégorie est principalement destinée aux personnes qui gèrent des sites Discourse. Je sais que je m’en écarte souvent moi-même, car je m’intéresse à de nombreuses idées liées aux communautés en ligne.
L’OP contient une suggestion valable qui pourrait être approfondie et publiée dans la catégorie Feature.
Les plaintes concernant la modération de Meta ont été notées. La catégorie communauté est délicate, car Meta est un site évident à utiliser pour des exemples, mais la catégorie n’est pas l’endroit approprié pour se plaindre de la modération de Meta.
De mon point de vue, les groupes générés par les utilisateurs seraient utiles pour ce type de discussions. Si les discussions pouvaient avoir lieu dans un groupe que je pourrais rejoindre et quitter librement, je serais heureux d’y participer. Hormis les plaintes concernant la modération de Meta, je m’intéresse à une grande partie de ce qui est discuté ici.
Je vais fermer ce sujet. En gardant à l’esprit les points ci-dessus, n’hésitez pas à créer de nouveaux sujets qui découlent des idées présentées ici.