Ciao a tutti,
Sto cercando un po’ di consigli/orientamento da parte di chi gestisce/modera/amministra siti di comunità da più tempo rispetto a me (un paio di anni).
La nostra comunità è meravigliosamente diversificata: ha attirato persone da tutto il mondo, con culture, lingue, credenze, generi ed età diverse – inserite qui qualsiasi caratteristica protetta e sono sicuro che ne abbiamo una rappresentanza – è fantastico!
Per mantenere le cose pulite, ho aggiunto una serie di parole monitorate qualche tempo fa (ben più di un anno fa); si tratta tipicamente di parolacce, difficili da descrivere senza usarle qui, ma alcune erano di tono forte, mentre altre, forse, per alcuni, erano parole di uso più comune. Inoltre, ho aggiunto alcuni termini che potrebbero essere usati come insulti o epiteti razzisti o omofobi.
Ho trovato difficile determinare quali parolacce includere e quali no; è arduo valutare la tolleranza altrui o i livelli di ciò che gli altri trovano offensivo/inappropriato senza fare nulla e poi aspettare che qualcuno si lamenti.
Stasera ho scoperto i messaggi automatici e predefiniti che Discourse invia quando il sistema segnala un argomento come inappropriato in base all’elenco delle parole monitorate. In un esempio, qualcuno aveva creato un elenco di termini relativi alla sessualità; uno di questi è stato segnalato a causa dell’elenco delle parole monitorate e il messaggio è stato inviato. Quando ho visto il messaggio inviato, questo affermava che diverse persone nella comunità avevano segnalato l’argomento come inappropriato, mentre in realtà era semplicemente perché aveva attivato una delle parole dell’elenco.
È superfluo dire che il messaggio è sembrato un po’ eccessivo per il termine utilizzato. Apprezzo di poter modificare i messaggi predefiniti, ma volevo chiedere: ci sono situazioni in cui questi messaggi vengono inviati in base al numero di segnalazioni, o sono semplicemente scritti in modo deciso per fungere più da deterrente?
Mi trovo davanti alla decisione se modificare il contenuto del messaggio o rimuovere alcune parole dall’elenco di quelle monitorate. Il problema è che alcune di queste parole potrebbero essere usate legittimamente in una conversazione; le ho aggiunte affinché un moderatore potesse revisionare il termine nel contesto, modificando l’argomento se necessario dopo aver accettato o rifiutato la segnalazione. In quel momento non ero a conoscenza dei messaggi inviati agli utenti, quindi mi è sembrata la cosa giusta da fare. Anche se crea un po’ di lavoro amministrativo, non succede troppo spesso perché, in generale, abbiamo una comunità molto gentile ![]()
Il processo che utilizziamo attualmente è più o meno questo:
- controllo dell’argomento segnalato
- sostituzione della parolaccia con asterischi
- accettazione della segnalazione, ma scelta di mantenere il post
Ciò ci permette di vedere quante volte un utente ha avuto argomenti segnalati, ad esempio per i recidivi, ma consente anche un approccio più delicato alla risoluzione. Se vediamo che i recidivi hanno molti argomenti segnalati, possiamo gestire ciascuno individualmente e personalmente come opportuno.
So che nelle impostazioni c’è l’opzione censura dove posso aggiungere parole; non l’ho ancora provata, ma immagino che non riceveremmo alcuna notifica/segnalazione per queste: verrebbero semplicemente sostituite automaticamente con asterischi e non ci sarebbe nulla nel profilo dell’utente a indicare le segnalazioni?
Come ho detto, abbiamo una comunità fantastica; credo che più spesso che no l’uso di parolacce derivi dalla frustrazione delle persone quando le cose non vanno come vorrebbero durante l’apprendimento di nuovi argomenti, e il loro post dà loro la possibilità di sfogarsi. Sono anche probabilmente un po’ protettivo verso il nostro pubblico più giovane. Potrei contare i giovani che abbiamo su due mani, ma so che ce ne sono alcuni, e vorrei che le cose rimanessero gentili per loro, pur rendendomi conto che probabilmente conoscono molte più parole (e forse di peggio!) di me ![]()
Quindi, suppongo di aver fatto diverse domande sopra, scusate se ho divagato. Qualcuno può offrire suggerimenti su un processo per prevenire/gestire l’uso di parolacce, insulti o epiteti razzisti o omofobi che sia forse migliore di quello sopra?
Potrei quasi aver bisogno di un’altra opzione: una per le parole che potrebbero essere usate nella conversazione quotidiana, ma che richiedono solo che qualcuno dia un’occhiata per assicurarsi che il contesto sia ok – ma senza inviare alcun tipo di messaggio all’utente fino a quando non viene intrapresa un’azione che giudica il contesto negativo.
Ho cercato di procedere con cautela sopra senza usare effettivamente nessuna delle parole che ho menzionato nel nostro elenco di parole monitorate, quindi scusate la mancanza di esempi/scenari.
Aggiungo anche che personalmente non trovo molte di queste cose offensive; sto solo cercando di essere consapevole del fatto che siamo tutti diversi e che ciò che una persona dice, anche se senza alcuna malizia, potrebbe offendere qualcun altro.
Qualsiasi pensiero/idea/suggerimento è benvenuto – grazie in anticipo ![]()
