Certaines phrases ou mots sont tellement inappropriés que leur utilisation mériterait un bannissement automatique de notre communauté, sans examen préalable.
Je propose donc un type de liste de mots surveillés supplémentaire qui entraînerait le bannissement automatique de la personne qui l’a posté.
En complément, cela pourrait générer une notification pour les modérateurs en cas d’erreur ou de besoin de révision.
Salut, excellente question - tout à fait légitime. Non, pas très souvent. J’ai reçu un e-mail très hostile la semaine dernière, cependant, et cela m’a fait réfléchir à la question - si quelqu’un voulait perturber la communauté, y aurait-il d’autres moyens de lui rendre cela difficile ? Et cette question semble être applicable à tout gestionnaire de communauté.
Sans parler de la fréquence du problème, voici ce qui me semble être un fait : Watched Words ne fonctionnera pas contre un tel comportement. Si quelqu’un veut poster un mot offensant, il trouvera un moyen de le faire.
En tant qu’administrateur de quelques forums Discourse, je gérerais cela manuellement.
Peut-être jetez un œil à Discourse Fingerprint - Browser Fingerprinting Plugin si vous pensez que les utilisateurs problématiques pourraient être assez agressifs pour créer plusieurs comptes afin d’atteindre un tel objectif.
Mais maintenant, je parle plus comme s’il s’agissait d’un sujet de Support ou de Community…
J’utiliserais simplement le mot surveillé par le silence et si vous le vouliez vraiment, vous pourriez utiliser l’API. Vérifiez tous les nouveaux messages en utilisant le point de terminaison /posts.json et vérifiez s’il contient un mot, puis suspendez avec l’API.
Je n’ai pas mentionné Silence, qui semblait être une bonne option au début à cause de « Les premiers messages des utilisateurs contenant ces mots nécessiteront l’approbation du personnel » (souligné par moi).
Quant à l’API, j’y ai pensé (j’ai fait quelque chose de similaire : Automatically delete users flagged by system?) mais je ne l’ai pas mentionnée non plus car c’était vraiment tiré par les cheveux, venant d’un sujet Feature.
Cela dit, un bannissement automatique est toujours une fonctionnalité dangereuse. Je doute fort qu’une telle chose soit officiellement ajoutée à Discourse.
Ce serait très utile, pour vaincre les spammeurs, la seule façon efficace est de faire en sorte qu’il soit plus facile pour les administrateurs/modérateurs de supprimer leurs publications/comptes qu’il ne l’est pour eux de créer de nouveaux comptes/publications. Actuellement, il existe des options de bannissement en masse minimales pour les modérateurs, en masse, c’est-à-dire bannir/supprimer facilement plusieurs comptes. Il existe des options en masse basées sur l’IP, mais ce n’est pas efficace contre les spammeurs modernes, car l’IP n’est pratiquement plus un facteur.
Avec les mots surveillés actuels, il est possible de réduire automatiquement au silence la première publication d’un utilisateur s’il contient un certain mot-clé. Mais si, par exemple, le mauvais acteur a créé de nombreux comptes et a déjà fait sa première publication, il peut continuer à publier et la seule option pour un modérateur est d’aller manuellement sur chaque publication ou profil individuel pour les bannir/supprimer.
Avec un bannissement automatique, nous pourrions au moins les laisser tomber dans nos pièges et nous faciliter la vie. Actuellement, si j’ajoute un mot surveillé qui signale, bloque ou censure automatiquement pour cibler les deuxièmes publications et suivantes d’un spammeur, ils peuvent simplement changer le texte qu’ils publient et leurs comptes restent indemnes.
Problème réel et fréquent, quelqu’un a créé plus de 10 000 comptes le week-end dernier et il est impossible de connaître les mots à réduire au silence avant leurs premières publications et à ce moment-là, il est trop tard. La seule façon pour un modérateur de nettoyer une attaque de spam en cours après que le spammeur ait déjà créé de nombreux comptes avec des premières publications est très inefficace.
Le bannissement automatique sur certains mots-clés aiderait beaucoup, car c’est un outil qui pourrait être utilisé dans certains cas (ils peuvent le contourner par plusieurs méthodes, mais au moins c’est un peu plus difficile pour eux et cela couvre certains cas). Ce n’est pas si dangereux car les utilisateurs peuvent simplement être débannis.