Bonjour à tous,
Je sollicite quelques conseils/orientations de la part de ceux qui supervisent/modèrent/gèrent des sites communautaires depuis plus longtemps que moi (quelques années).
Notre communauté est merveilleusement diversifiée ; elle attire des personnes du monde entier, de différentes cultures, langues, croyances, genres, âges — insérez ici n’importe quelle caractéristique protégée et je suis certain que nous avons une représentation — c’est génial !
Afin de maintenir les choses propres, j’ai ajouté il y a quelque temps (il y a plus d’un an) une série de mots surveillés. Ce sont généralement des jurons, difficiles à décrire sans les utiliser ici, mais certains étaient de la forte saveur, tandis que d’autres étaient peut-être, pour certains, des mots d’usage quotidien. En outre, j’ai ajouté certains termes pouvant être utilisés comme insultes ou injures racistes ou homophobes.
J’ai trouvé difficile de déterminer quels jurons devaient être ajoutés et lesquels non ; il est difficile d’évaluer les tolérances des autres ou leurs seuils d’offense/inadéquation sans rien faire et attendre qu’une personne s’exprime.
Ce soir, j’ai pris connaissance des messages automatisés et modélisés que Discourse envoie lorsque le système signale un sujet comme inapproprié sur la base de la liste des mots surveillés. Dans un exemple, quelqu’un avait dressé une liste de termes relatifs à la sexualité ; l’un d’eux a été signalé à cause de la liste des mots surveillés et le message a été envoyé. Lorsque j’ai vu le message envoyé, il indiquait qu’un certain nombre de personnes de la communauté avaient signalé le sujet comme inapproprié, alors qu’en réalité, c’était simplement parce qu’il avait déclenché l’un des mots de la liste.
Inutile de dire que le message semblait un peu excessif pour le terme utilisé. Je comprends que je puisse modifier les messages modélisés, mais je voulais demander : y a-t-il des situations où ces messages sont envoyés en fonction du nombre de signalements, ou sont-ils simplement rédigés de manière forte pour agir davantage comme dissuasif ?
Je me retrouve donc face à la décision de modifier le contenu du message ou de retirer certains mots de la liste des mots surveillés. Le problème est que certains de ces mots pourraient être utilisés légitimement dans une conversation ; je les ai ajoutés afin qu’un modérateur puisse examiner le terme dans son contexte, en modifiant le sujet si nécessaire après avoir accepté ou rejeté le signalement. À l’époque, je n’étais pas au courant des messages envoyés aux utilisateurs, donc cela semblait être la bonne chose à faire. Bien que cela crée un peu de travail administratif, cela n’arrive pas trop souvent car, généralement, nous avons une communauté très polie ![]()
Le processus que nous utilisons actuellement est à peu près le suivant :
- vérifier le sujet signalé
- remplacer le juron par des astérisques
- accepter le signalement, mais choisir de conserver le message
Cela nous permet de voir le nombre de fois où un utilisateur a eu des sujets signalés, par exemple les récidivistes, mais aussi d’adopter une approche plus douce pour résoudre le problème. Si nous constatons que ces récidivistes ont de nombreux sujets signalés, nous pourrions alors traiter chacun d’eux individuellement/personnellement comme il convient.
Je comprends qu’il existe l’option censure dans les paramètres où je peux également ajouter des mots ; je ne l’ai pas encore essayée, mais je suppose que nous ne recevrons aucune notification/signalement pour ceux-ci ; ils seraient simplement remplacés automatiquement par des astérisques et il n’y aurait rien sur le profil de l’utilisateur indiquant les signalements.
Comme je l’ai dit, nous avons une communauté fabuleuse ; je crois que plus souvent qu’autrement, l’usage de jurons provient de la frustration des gens lorsque les choses ne se passent pas comme ils le souhaiteraient lors de l’apprentissage de nouveaux sujets ; leur message leur donne alors la possibilité de se défouler. Je suis probablement aussi un peu protecteur envers notre jeune public. Je pourrais probablement compter le nombre de jeunes que nous avons sur deux mains, mais je sais que nous en avons quelques-uns, et je voudrais que les choses restent agréables pour eux — en étant pleinement conscient qu’ils connaissent probablement tous beaucoup plus de mots (et peut-être de pires !) que moi ![]()
Donc, je suppose que je pose plusieurs questions ci-dessus ; désolé si j’ai divagué. Quelqu’un peut-il offrir des suggestions sur un processus pour prévenir/gérer l’usage de jurons, d’insultes/injures racistes ou homophobes, qui serait peut-être meilleur que celui décrit ci-dessus ?
Je pourrais presque avoir besoin d’une autre option, une pour les mots qui pourraient être utilisés dans la conversation quotidienne, mais qui nécessitent simplement qu’une personne jette un coup d’œil pour s’assurer que le contexte est acceptable — mais sans envoyer aucune forme de message à l’utilisateur tant qu’une action n’a pas été prise jugeant le contexte comme mauvais.
J’ai essayé d’avancer prudemment ci-dessus sans utiliser réellement aucun des mots auxquels je fais référence dans nos mots surveillés, donc veuillez m’excuser pour le manque d’exemples/scénarios.
Je dois ajouter que je ne trouve personnellement pas grand-chose de tout cela offensant ; j’essaie simplement d’être conscient du fait que nous sommes tous différents et que ce qu’une personne dit, même sans aucune malice, peut offenser quelqu’un d’autre.
Toutes réflexions/idées/suggestions sont les bienvenues — merci d’avance ![]()
