Recommendations for handling difficult situations

I’m in the process of coming up with some basic recommendations for Discourse owners and moderators, on how to make challenging moderator decisions in a sustainable, community friendly way.

Here’s what I have so far:

  1. Share moderation duties with multiple people. Having a single focal point for all mod decisions is fatiguing and can lead to undue flashpoints, and personal attacks. If there’s only one person in charge, is the forum “you”? What if you’re tired, or cranky, or in a bad place? What if you find yourself overly involved in a topic and want to defer moderation to someone else? That’s a dangerous path to be on.

  2. When you must ban, be decisive. Certainly give people another chance if they make a mistake, but then cleanly, decisively ban them. It is not your job to reform this person. You are not obligated to let them try over and over. You can keep the door open by advising them to email you in 6 months or a year if they want to try again. But the impetus to recognize the problem, apologize, and ask politely to try again – that is on them.

  3. Discuss bans, but not too much, and only in the right place. Please don’t celebrate bans or constantly bring them up, and definitely don’t clutter unrelated topics with ban conversation. Keep ban discussion in the “forum feedback” category.

  4. Keep heated moderation talk in private. If things are getting heated, remove that part from the public topic, into a private group message. Maybe even take it offline if needed, to email or voice. At minimum move it to the “forum feedback” category so other topics aren’t cluttered with off-topic moderation stuff.

  5. Take a break. Sometimes people just need to walk away for a while and take a break from the discussion. A short timed closure of a contentious topic, or a day suspension, might be in order. Avoid making hasty decisions in the heat of the moment, and discourage others from doing so as well.

37 Me gusta

On the forum that I manage, we’ve found that being clear about the reasons why we do the things that we do makes the community more cooperative. If a moderator is perceived to be arbitrary, it causes problems. Of course that means we’re constantly iterating our community guidelines. But it’s not so often that we’re getting bogged down by rules.

When we have to impose sanctions, our default mantra is to set blasters to stun. Serious action like thread closure (our people don’t like to be interrupted) or suspension requires more than one pair of eyes to go through.

11 Me gusta

That. 110%. Over at Stonehearth any “major” action that is taken is discussed by at least 2 staff and typically ends up being discussed by all active staff before taking place. We’ve taken advantage of the updated blocking feature, to prevent public posting while we chat quietly with a user. If necessary - and thus far very rare - we’ll go for a suspension. If the offense is clear, non-disputable, we’ll block without discussion, but that too is quite rare. The only instances where a single moderator would block without discussion would be an inappropriate username and/or profile image. Even when we had a clear spammer posting pornographic videos, (which were quickly flagged into oblivion), we didn’t delete the spammer until after a (brief) discussion.

Another focus for us is leading by example. Our staff is active in the community, and many users don’t immediately associate us as staff, just as a friendly user. We try to welcome each new user after their first post with a “hello and welcome” reply and be as friendly as we can. If a user posts in the wrong place, we’ll move it, and then post a reply explaining why. 95% of the time, users are appreciative, and this helps foster a friendly and helpful community. With this, most users will seek us out when they need help, and we aren’t some unknown being watching over the forums.

9 Me gusta

Al reflexionar sobre este tema, creo que el consejo aquí sigue siendo válido. Sin embargo, hay algo que posiblemente añadiría:

  1. Considera tener un tema #site-feedback que resuma las decisiones importantes de los moderadores y la razón detrás de ellas. Descubrimos que la transparencia en la moderación contribuye en gran medida a hacer que las comunidades sean más sostenibles. Con el tiempo, terminarás con algo así como un manual de reglas ilustrado: ejemplos específicos de los tipos de comportamientos que no son bienvenidos en tu sitio y las consecuencias de dichos comportamientos. Las discusiones relacionadas pueden derivarse en otros temas #site-feedback para mejorar y enriquecer tu comunidad también. ¡Ese es el objetivo!
21 Me gusta

También quería capturar este pensamiento aquí, porque hay algo única y peligrosamente arriesgado en él, y definitivamente se encuentra en el extremo más alto del nivel de desafío para moderadores.


Encontré este intercambio en Hacker News fascinante.

Creo que la directriz relevante lo expresa bien:

Los comentarios deben volverse más civilizados y sustanciales, no menos, a medida que un tema se vuelve más divisivo.

La insuficiencia de esta directriz y el enmarcar la mayoría de la moderación bajo sus principios es la razón por la que el problema y las «dinámicas», como dice tptacek, existen desde el principio.

El sitio selecciona y cría racistas y misóginos civilizados y sustanciales (junto con las respuestas hiper-sensibilizadas) como un hospital cría superbacterias resistentes a los antibióticos.

Puedo ver que «selecciona», pero «cría» parece un exagero. ¿A menos que te refieras a que cría civilidad dentro de racistas y misóginos, lo cual parecería beneficioso?

Sí, mayormente lo segundo. Es lo opuesto a beneficioso: porque las directrices dicen «no seas un grosero/charlatán obvio» y la mayoría de las personas que son señaladas lo son por algo relacionado con eso; los intolerantes que se adaptan a esto pueden y a veces lo hacen, permanecen en el sitio durante años.

Los moderadores de HN ponen un gran esfuerzo y tienen un éxito sorprendente al contener el impulso humano mucho más básico y común de ser un maleducado con extraños en línea. Tienen reglas, las hacen cumplir, exponen públicamente a quienes las rompen, etc. Está explícitamente prohibido ser un idiota en HN y todos lo saben. El lugar sería mejor si «no seas un intolerante» recibiera el mismo tratamiento. Los usuarios en mayúsculas y los transgresores contra el culto fundamentalista de las comillas de HN están expuestos a más desprecio público que el típico «león marino de la biodiversidad humana».

Nunca había pensado en esto de esta manera, pero tiene razón: una línea de argumentación racista, misógina o intolerante es mucho más peligrosa cuando está envuelta en las vestiduras de una civilidad abierta. Por lo tanto, en la medida en que estamos enseñando a las personas …

Oye, está bien decir cosas racistas/sexistas/intolerantes, siempre y cuando lo hagas de manera civil y sustancial

… estamos creando indirectamente racistas/sexistas/intolerantes mucho más poderosos, quienes se volverán inmunes a moderadores menos sofisticados que solo verán: «bueno, lo que esta persona dice es moralmente aborrecible, pero no lo dice de una manera mala…»

13 Me gusta

Los estudios donde se imparten clases sobre empatía, “relaciones saludables” y comunicación no violenta a personas dentro del espectro de la psicopatología muestran que se vuelven más efectivos… como psicópatas.

Es, en efecto, un aspecto desafiante de ser facilitadores y moderadores en una comunidad.

12 Me gusta

Vale la pena considerar una categoría liderada por grupos para la moderación. De esta manera, las personas pueden optar por participar en las discusiones, mientras que la gran mayoría de los usuarios puede optar por no participar.

Creamos una categoría de usuarios registrados para que sea fácil mover las discusiones al Nivel de Confianza 0 y evitar los rastreadores web y otro tráfico anónimo.

4 Me gusta

Aquí hay datos convincentes que respaldan la idea de expulsar a sus usuarios más difíciles. Afortunadamente, este tipo de usuarios son muy raros, por lo que vale la pena el esfuerzo de expulsarlos:

Y al moderar contenido, la importancia de dejar señales sobre por qué se eliminaron las publicaciones maliciosas, en lugar de simplemente hacer que las cosas desaparezcan:

Los dos artículos son “Community Interaction and Conflict on the Web” (enlace pdf) y “Does Transparency in Moderation Really Matter? User Behavior After Content Removal Explanations on Reddit” (enlace pdf).

16 Me gusta

Este tema es increíble. Definitivamente lo compartiré con mi community manager. :grinning:

¡Muchas gracias por crearlo!

7 Me gusta

Una descripción detallada de la publicación de buena fe vs. mala fe de Boing Boing, que tiene la instancia pública de Discourse de más larga duración en el mundo. ¡Si alguien lo supiera, serían ellos!

“Mala fe” desde un contexto de moderación es:

  1. Violar nuestras directrices comunitarias. Esa es una fácil y obvia.
  2. Publicar algo con la intención específica de enfadar a la comunidad en lugar de participar. Esto requiere necesariamente alguna forma de saber que el usuario probablemente no cree lo que dice.
  3. Un patrón constante de adoptar la posición del “abogado del diablo” en múltiples temas. Hemos tenido varios malos actores que han hecho esto específicamente: siempre adoptaron el punto contrario específicamente para enfadar a la comunidad.
  4. Repetidas simulaciones de implicación personal con temas: que improbablemente, un usuario forma parte de cada minoría, que ha hecho cada cosa, que cada problema es personal para él. También hemos tenido malos actores que han hecho esto específicamente.
  5. El tradicional “sealioning” (pedir pruebas de forma insistente): entrar en una discusión, exigir que vaya en una sola dirección y que las personas refuten expresamente su posición, desestimando todas las demás.

Los moderadores señalan que todos los comportamientos negativos anteriores deben responderse con una bandera :triangular_flag: y no con el botón de respuesta. Las respuestas son un estímulo, es decir, “sí, por favor, queremos más de esto”.

17 Me gusta

Este artículo habla principalmente de plataformas “que se comen el mundo” y “todos en un sitio web”, para las cuales Discourse no está realmente diseñado… pero hace un gran trabajo al ilustrar los peligros generales de la moderación de contenido comenzando (incorrectamente, por supuesto) con “¡se permite todo el discurso!”

10 Me gusta

¡Guau! Un artículo excelente e instructivo sobre las redes sociales y sus muchos problemas. Gracias. :+1:

6 Me gusta