Recommendations for handling difficult situations

I’m in the process of coming up with some basic recommendations for Discourse owners and moderators, on how to make challenging moderator decisions in a sustainable, community friendly way.

Here’s what I have so far:

  1. Share moderation duties with multiple people. Having a single focal point for all mod decisions is fatiguing and can lead to undue flashpoints, and personal attacks. If there’s only one person in charge, is the forum “you”? What if you’re tired, or cranky, or in a bad place? What if you find yourself overly involved in a topic and want to defer moderation to someone else? That’s a dangerous path to be on.

  2. When you must ban, be decisive. Certainly give people another chance if they make a mistake, but then cleanly, decisively ban them. It is not your job to reform this person. You are not obligated to let them try over and over. You can keep the door open by advising them to email you in 6 months or a year if they want to try again. But the impetus to recognize the problem, apologize, and ask politely to try again – that is on them.

  3. Discuss bans, but not too much, and only in the right place. Please don’t celebrate bans or constantly bring them up, and definitely don’t clutter unrelated topics with ban conversation. Keep ban discussion in the “forum feedback” category.

  4. Keep heated moderation talk in private. If things are getting heated, remove that part from the public topic, into a private group message. Maybe even take it offline if needed, to email or voice. At minimum move it to the “forum feedback” category so other topics aren’t cluttered with off-topic moderation stuff.

  5. Take a break. Sometimes people just need to walk away for a while and take a break from the discussion. A short timed closure of a contentious topic, or a day suspension, might be in order. Avoid making hasty decisions in the heat of the moment, and discourage others from doing so as well.

37 Mi Piace

On the forum that I manage, we’ve found that being clear about the reasons why we do the things that we do makes the community more cooperative. If a moderator is perceived to be arbitrary, it causes problems. Of course that means we’re constantly iterating our community guidelines. But it’s not so often that we’re getting bogged down by rules.

When we have to impose sanctions, our default mantra is to set blasters to stun. Serious action like thread closure (our people don’t like to be interrupted) or suspension requires more than one pair of eyes to go through.

11 Mi Piace

That. 110%. Over at Stonehearth any “major” action that is taken is discussed by at least 2 staff and typically ends up being discussed by all active staff before taking place. We’ve taken advantage of the updated blocking feature, to prevent public posting while we chat quietly with a user. If necessary - and thus far very rare - we’ll go for a suspension. If the offense is clear, non-disputable, we’ll block without discussion, but that too is quite rare. The only instances where a single moderator would block without discussion would be an inappropriate username and/or profile image. Even when we had a clear spammer posting pornographic videos, (which were quickly flagged into oblivion), we didn’t delete the spammer until after a (brief) discussion.

Another focus for us is leading by example. Our staff is active in the community, and many users don’t immediately associate us as staff, just as a friendly user. We try to welcome each new user after their first post with a “hello and welcome” reply and be as friendly as we can. If a user posts in the wrong place, we’ll move it, and then post a reply explaining why. 95% of the time, users are appreciative, and this helps foster a friendly and helpful community. With this, most users will seek us out when they need help, and we aren’t some unknown being watching over the forums.

9 Mi Piace

Riflettendo su questo argomento, penso che i consigli qui riportati siano ancora validi. Tuttavia, c’è una cosa che potrei aggiungere:

  1. Valuta di creare un topic #site-feedback che riassuma le decisioni significative dei moderatori e le motivazioni alla loro base. Riteniamo che la trasparenza nella moderazione contribuisca in modo significativo a rendere le comunità più sostenibili. Col tempo, avrai a disposizione una sorta di regolamento illustrato: esempi specifici dei tipi di comportamenti non graditi sul tuo sito e le conseguenze di tali comportamenti. Le discussioni correlate possono essere sviluppate in altri topic #site-feedback per migliorare e potenziare la tua comunità. Questo è l’obiettivo!
21 Mi Piace

Volevo anche registrare questo pensiero qui, perché c’è qualcosa di unicamente pericoloso in esso ed è decisamente all’estremo del livello di sfida per i moderatori.


Ho trovato questo scambio su Hacker News affascinante.

Penso che la linea guida pertinente lo esprima bene:

I commenti dovrebbero diventare più civili e sostanziosi, non meno, man mano che un argomento diventa più divisivo.

L’inadeguatezza di questa linea guida e l’inquadratura della maggior parte della moderazione lungo le sue linee è il motivo per cui il problema e le ‘dinamiche’, come dice tptacek, esistono in primo luogo.

Il sito seleziona e alleva razzisti e misogini civili e sostanziosi (insieme alle risposte ipersensibilizzate) come un ospedale alleva super-batteri resistenti agli antibiotici.

Posso capire la selezione, ma ‘allevare’ sembra un’esagerazione. A meno che tu non intenda allevare la civiltà nei razzisti e nei misogini, il che sembra benefico?

Sì, soprattutto la seconda cosa. È l’opposto del benefico: poiché le linee guida dicono ‘non essere un maleducato/un pomposo ovvio’ e la maggior parte delle persone che vengono richiamate lo è per qualcosa di simile, i bigotti che si adattano a queste regole possono e talvolta restano sul sito per anni.

I moderatori di HN hanno dedicato molta energia e hanno avuto un successo sorprendente nel contenere l’impulso umano molto più basilare e comune di essere dei maleducati con gli sconosciuti online. Hanno delle regole, le fanno rispettare, umiliano pubblicamente i trasgressori, ecc. Su HN non è esplicitamente consentito essere degli stronzi e tutti lo sanno. Il sito starebbe meglio se ‘non essere un bigotto’ ricevesse lo stesso trattamento. Gli utenti che scrivono tutto in maiuscolo e i trasgressori contro il culto delle virgolette fondamentaliste di HN sono esposti a un disprezzo pubblico maggiore rispetto al tipico ‘seagull’ della ‘biodiversità umana’.

Non ci avevo mai pensato in questo modo, ma ha ragione: una linea di argomentazione razzista, misogina o bigotta è molto più pericolosa quando è avvolta nelle vesti di una civiltà palese. Quindi, nella misura in cui stiamo insegnando alle persone …

Ehi, va bene dire cose razziste / sessiste / bigotte, purché lo si faccia in modo civile e sostanzioso

… stiamo creando indirettamente razzisti / sessisti / bigotti molto più potenti, che diventeranno immuni a moderatori meno sofisticati che vedranno solo: ‘beh, quello che questa persona sta dicendo è moralmente abominevole, ma non lo sta dicendo in modo cattivo…’

13 Mi Piace

Gli studi in cui vengono forniti corsi su empatia, “relazioni sane” e comunicazione non violenta a persone nello spettro della psicopatologia mostrano che diventano psicopati più efficaci.

È davvero un aspetto impegnativo del ruolo di facilitatori e moderatori in una comunità.

12 Mi Piace

Vale la pena prendere in considerazione una categoria guidata da gruppi per la moderazione. In questo modo, gli utenti possono scegliere di partecipare alle discussioni, mentre la stragrande maggioranza degli utenti può escludersi.

Abbiamo creato una categoria utenti registrati per facilitare lo spostamento delle discussioni al Livello di fiducia 0 ed evitare i crawler web e altro traffico anonimo.

4 Mi Piace

Ecco alcuni dati convincenti a sostegno dell’idea di espellere gli utenti più difficili. Fortunatamente, questi tipi di utenti sono molto rari, quindi vale la pena fare lo sforzo di espellerli:

E quando si modera il contenuto, l’importanza di lasciare indicazioni sul perché i post negativi sono stati rimossi, piuttosto che farli semplicemente sparire:

I due articoli sono “Community Interaction and Conflict on the Web” (link pdf) e “Does Transparency in Moderation Really Matter? User Behavior After Content Removal Explanations on Reddit” (link pdf).

16 Mi Piace

Questo argomento è fantastico. Lo condividerò sicuramente con il mio community manager. :grinning:

Grazie mille per averlo creato!

7 Mi Piace

Una descrizione dettagliata di post in buona fede vs. malafede da Boing Boing, che ha l’istanza Discourse pubblica più longeva al mondo… se qualcuno dovesse saperlo, sarebbero loro!

“Malafede” in un contesto di moderazione è:

  1. Violare le nostre linee guida della community. Questo è un punto facile e ovvio.
  2. Pubblicare qualcosa con l’intento specifico di far infuriare la community invece di parteciparvi. Questo richiede necessariamente un modo per capire che l’utente probabilmente non crede a ciò che dice.
  3. Un modello coerente di assunzione della posizione dell’“avvocato del diavolo” su più argomenti. Abbiamo avuto diversi malintenzionati che hanno fatto proprio questo: hanno sempre assunto la posizione contraria specificamente per far infuriare la community.
  4. Ripetute finte di coinvolgimento personale con gli argomenti: che improbabilmente un utente faccia parte di ogni minoranza, che abbia fatto ogni cosa, che ogni problema sia personale per lui. Abbiamo avuto malintenzionati che hanno fatto proprio questo, inoltre.
  5. Il tradizionale “sealioning” (fare il leone marino): entrare in una discussione, chiedere che vada in un solo modo, e che le persone confutino espressamente la loro posizione, ignorando tutte le altre.

I moderatori sottolineano che tutti i comportamenti negativi di cui sopra dovrebbero essere affrontati tramite segnalazione :triangular_flag: e non con il pulsante di risposta! Le risposte sono incoraggiamento, è come dire “sì per favore, vogliamo ancora di questo”.

17 Mi Piace

Questo articolo parla principalmente di piattaforme “mangia-mondo” “tutti su un sito web” :globe_showing_europe_africa:, per le quali Discourse non è stato realmente progettato… ma fa un ottimo lavoro nell’illustrare i pericoli generali della moderazione dei contenuti partendo (erroneamente, ovviamente) da “tutto il discorso è permesso!”

10 Mi Piace

Wow! Un articolo eccellente e illuminante sui social media e i loro numerosi problemi. Grazie. :+1:

6 Mi Piace