Recommendations for handling difficult situations

I’m in the process of coming up with some basic recommendations for Discourse owners and moderators, on how to make challenging moderator decisions in a sustainable, community friendly way.

Here’s what I have so far:

  1. Share moderation duties with multiple people. Having a single focal point for all mod decisions is fatiguing and can lead to undue flashpoints, and personal attacks. If there’s only one person in charge, is the forum “you”? What if you’re tired, or cranky, or in a bad place? What if you find yourself overly involved in a topic and want to defer moderation to someone else? That’s a dangerous path to be on.

  2. When you must ban, be decisive. Certainly give people another chance if they make a mistake, but then cleanly, decisively ban them. It is not your job to reform this person. You are not obligated to let them try over and over. You can keep the door open by advising them to email you in 6 months or a year if they want to try again. But the impetus to recognize the problem, apologize, and ask politely to try again – that is on them.

  3. Discuss bans, but not too much, and only in the right place. Please don’t celebrate bans or constantly bring them up, and definitely don’t clutter unrelated topics with ban conversation. Keep ban discussion in the “forum feedback” category.

  4. Keep heated moderation talk in private. If things are getting heated, remove that part from the public topic, into a private group message. Maybe even take it offline if needed, to email or voice. At minimum move it to the “forum feedback” category so other topics aren’t cluttered with off-topic moderation stuff.

  5. Take a break. Sometimes people just need to walk away for a while and take a break from the discussion. A short timed closure of a contentious topic, or a day suspension, might be in order. Avoid making hasty decisions in the heat of the moment, and discourage others from doing so as well.

37 « J'aime »

On the forum that I manage, we’ve found that being clear about the reasons why we do the things that we do makes the community more cooperative. If a moderator is perceived to be arbitrary, it causes problems. Of course that means we’re constantly iterating our community guidelines. But it’s not so often that we’re getting bogged down by rules.

When we have to impose sanctions, our default mantra is to set blasters to stun. Serious action like thread closure (our people don’t like to be interrupted) or suspension requires more than one pair of eyes to go through.

11 « J'aime »

That. 110%. Over at Stonehearth any “major” action that is taken is discussed by at least 2 staff and typically ends up being discussed by all active staff before taking place. We’ve taken advantage of the updated blocking feature, to prevent public posting while we chat quietly with a user. If necessary - and thus far very rare - we’ll go for a suspension. If the offense is clear, non-disputable, we’ll block without discussion, but that too is quite rare. The only instances where a single moderator would block without discussion would be an inappropriate username and/or profile image. Even when we had a clear spammer posting pornographic videos, (which were quickly flagged into oblivion), we didn’t delete the spammer until after a (brief) discussion.

Another focus for us is leading by example. Our staff is active in the community, and many users don’t immediately associate us as staff, just as a friendly user. We try to welcome each new user after their first post with a “hello and welcome” reply and be as friendly as we can. If a user posts in the wrong place, we’ll move it, and then post a reply explaining why. 95% of the time, users are appreciative, and this helps foster a friendly and helpful community. With this, most users will seek us out when they need help, and we aren’t some unknown being watching over the forums.

9 « J'aime »

En réfléchissant à ce sujet, je pense que les conseils présentés ici restent pertinents. Cependant, il y a une chose que j’ajouterais peut-être :

  1. Envisagez de créer un sujet #site-feedback résumant les décisions importantes des modérateurs et les raisons qui les sous-tendent. Nous constatons que la transparence dans la modération contribue grandement à rendre les communautés plus durables. Avec le temps, vous obtiendrez quelque chose de semblable à un manuel illustré : des exemples concrets des types de comportements qui ne sont pas bienvenus sur votre site, ainsi que les conséquences de ces comportements. Les discussions connexes peuvent être détachées pour former d’autres sujets #site-feedback afin d’améliorer et d’enrichir votre communauté. C’est l’objectif !
21 « J'aime »

Je voulais également capturer cette réflexion ici, car elle présente un danger unique et se situe définitivement à l’extrême du spectre des défis de modération.


J’ai trouvé cet échange sur Hacker News fascinant.

Je pense que la ligne directrice pertinente le formule bien :

Les commentaires doivent devenir plus polis et plus substantiels, et non moins, à mesure qu’un sujet devient plus clivant.

L’inadéquation de cette ligne directrice et le fait de fonder la plupart des actions de modération sur ses principes sont précisément la raison pour laquelle le problème et les « dynamiques », comme le dit tptacek, existent en premier lieu.

Le site sélectionne et élève des racistes et des misogynes polis et substantiels (ainsi que leurs réactions hyper-sensibilisées) de la même manière qu’un hôpital élève des super-bactéries résistantes aux antibiotiques.

Je comprends la sélection, mais « élève » me semble exagéré. À moins que vous ne vouliez dire qu’il élève la civilité chez les racistes et les misogynes, ce qui semblerait bénéfique ?

Oui, surtout la seconde option. C’est l’inverse d’être bénéfique – car les lignes directrices disent « ne sois pas un méchant/un vantard évident » et la plupart des personnes mises en cause le sont pour des raisons de ce type. Les bigots qui s’adaptent à ces règles peuvent, et le font parfois, rester sur le site pendant des années.

Les modérateurs de HN y consacrent beaucoup d’efforts et réussissent étonnamment bien à contenir l’impulsion humaine beaucoup plus basique et courante d’être un crétin envers des inconnus en ligne. Ils ont des règles, ils les appliquent, ils exposent publiquement les contrevenants, etc. Il est explicitement interdit d’être un imbécile sur HN et tout le monde le sait. Le site serait meilleur si « ne sois pas un bigot » bénéficiait du même traitement. Les utilisateurs en majuscules et les contrevenants au culte des guillemets fondamentalistes de HN sont exposés à un mépris public plus grand que le « lion de mer » typique de la « biodiversité humaine ».

Je n’avais jamais envisagé les choses de cette façon, mais il a raison : un raisonnement raciste, misogyne ou bigot est beaucoup plus dangereux lorsqu’il est enveloppé dans les robes d’une civilité ostensible. Donc, dans la mesure où nous enseignons aux gens …

Hé, c’est OK de dire des choses racistes / sexistes / bigotes, tant que tu les dis de manière polie et substantielle

… nous créons indirectement des racistes / sexistes / bigots beaucoup plus puissants, qui deviendront immunisés contre des modérateurs moins sophistiqués qui ne verront que « eh bien, ce que cette personne dit est moralement abominable, mais elle ne le dit pas de manière méchante… »

13 « J'aime »

Des études menées auprès de personnes présentant des troubles psychopathologiques, qui suivent des cours sur l’empathie, les « relations saines » et la communication non violente, montrent qu’elles deviennent plus efficaces… en tant que psychopathes.

C’est en effet un aspect délicat du rôle de facilitateurs et de modérateurs au sein d’une communauté.

12 « J'aime »

Il vaut la peine d’envisager une catégorie pilotée par des groupes pour la modération. De cette façon, les personnes peuvent choisir de participer aux discussions, tandis que la grande majorité des utilisateurs peuvent choisir de ne pas y participer.

Nous avons créé une catégorie utilisateurs connectés afin qu’il soit facile de déplacer les discussions vers le niveau de confiance 0 et d’éviter les robots d’exploration web et autres trafics anonymes.

4 « J'aime »

Voici des données convaincantes qui soutiennent l’idée de bannir vos utilisateurs les plus difficiles. Ces types d’utilisateurs sont heureusement très rares, donc l’effort pour les bannir en vaut la peine :

Et lors de la modération de contenu, l’importance de laisser des indications sur pourquoi les mauvais posts ont été supprimés, plutôt que de simplement faire disparaître les choses :

Les deux articles sont « Community Interaction and Conflict on the Web » (lien pdf) et « Does Transparency in Moderation Really Matter? User Behavior After Content Removal Explanations on Reddit » (lien pdf).

16 « J'aime »

Ce sujet est génial. Je vais absolument le partager avec mon responsable communautaire. :grinning:

Merci beaucoup de l’avoir créé !

7 « J'aime »

Une description détaillée de la publication de bonne foi vs. de mauvaise foi par Boing Boing, qui possède l’instance Discourse publique la plus ancienne au monde… si quelqu’un devait savoir, ce serait eux !

« Mauvaise foi » dans un contexte de modération, c’est :

  1. Violer nos directives communautaires. C’est un point facile et évident.
  2. Publier quelque chose dans l’intention spécifique de monter la communauté en épingle au lieu d’y participer. Cela nécessite impérativement un moyen de déterminer que l’utilisateur ne croit probablement pas ce qu’il dit.
  3. Un schéma constant de prendre la position de « l’avocat du diable » sur plusieurs sujets. Nous avons eu plusieurs mauvais acteurs qui ont fait cela spécifiquement - ils prenaient toujours le contre-pied spécifiquement pour monter la communauté en épingle.
  4. Simuler à plusieurs reprises un engagement personnel dans des sujets - qu’improbable, un utilisateur fait partie de chaque minorité, qu’il a tout fait, que chaque problème est personnel pour lui. Nous avons eu des mauvais acteurs qui ont fait cela spécifiquement, également.
  5. Le « sealioning » traditionnel - entrer dans une discussion, exiger qu’elle se déroule dans un seul sens, et que les gens réfutent expressément leur position, en ignorant toutes les autres.
    Les modérateurs soulignent que tous les comportements négatifs ci-dessus doivent être signalés via le drapeau :triangular_flag: et non le bouton de réponse ! Les réponses sont un encouragement, c’est vous qui dites « oui s’il vous plaît, encore de ça ».
17 « J'aime »

Cet article parle principalement des plateformes « qui mangent le monde » « tout le monde sur un seul site web » :globe_showing_europe_africa:, ce à quoi Discourse n’est pas vraiment conçu pour être… mais il fait un excellent travail pour illustrer les périls généraux de la modération de contenu, en commençant (à tort, bien sûr) par « toutes les paroles sont autorisées » !

10 « J'aime »

Wow ! Un excellent article éclairant sur les médias sociaux et leurs nombreux problèmes. Merci. :+1:

6 « J'aime »