Cette fonctionnalité fait maintenant partie de Discourse AI. Ce plugin est obsolète.
|||
-|-|-|
| Résumé | Disorder aide les modérateurs en signalant automatiquement le contenu potentiellement toxique sur votre forum Discourse.
| Lien vers le dépôt | https://github.com/xfalcox/disorder
| Guide d’installation | Comment installer des plugins dans Discourse
Si vous utilisez notre service d’hébergement officiel, veuillez contacter notre support pour enregistrer votre intérêt pour ce plugin.
Toxicité
Comme l’a dit @hawk dans Dealing with Toxicity in Online Communities, la gestion de la toxicité dans votre communauté est fondamentale.
Bien que Discourse soit livré avec de nombreux outils pour aider à gérer la toxicité dans votre communauté, nous recherchons toujours des moyens de l’améliorer davantage. En particulier, j’ai recherché les applications possibles de l’apprentissage automatique et de l’IA dans les forums en ligne. Il s’agit maintenant d’un plugin expérimental, disponible pour toutes les communautés.
Le plugin
Disorder exploite l’intelligence artificielle et l’apprentissage automatique pour vous aider à modérer votre communauté, facilitant ainsi le travail de votre équipe de modération pour être au courant du contenu potentiellement problématique et même pour inciter vos utilisateurs à réviser les messages toxiques avant de les publier.
C’est une première incursion dans l’utilisation de modèles ML auto-hébergés dans Discourse, et bien que ce soit un modèle simple, il établit un schéma qui peut être réutilisé pour appliquer des modèles plus complexes par la suite.
Fonctionnalités
Signalement en arrière-plan
C’est le mode de fonctionnement principal de Disorder, car il est complètement transparent pour vos utilisateurs, qui ne seront pas au courant des changements.
Chaque fois qu’un nouveau message (ou message de chat utilisant Discourse Chat) est créé, il sera mis dans une file d’attente de classification de manière asynchrone. Si la classification dépasse un seuil configurable, le message/message de chat sera signalé afin que votre équipe de modération en soit avertie et puisse prendre la décision finale sur le signalement.
Intervention sur nouveau message
Si vous pensez que la prévention est le meilleur remède, cette option plus active pourrait vous intéresser.
Vous pouvez activer une classification synchrone de tout nouveau message qui, s’il dépasse un seuil de toxicité configurable, déclenchera une intervention sur le flux du nouveau message, demandant à l’utilisateur de réviser et de modifier le message qui pourrait être en dehors des limites fixées par les règles de votre communauté.
Cela ne se produira qu’une seule fois, et après avoir fermé la modale, l’utilisateur pourra poster normalement.
Comment ça marche ?
Ce plugin intègre les modèles open source de Detoxify, en utilisant un modèle d’appel d’API à distance pour permettre aux administrateurs de mettre à l’échelle le taux d’inférence en fonction des besoins de chaque communauté.
Nous fournissons une image simple qui fournit une API HTTP mince que Discourse appellera pour effectuer la classification du contenu, qui peut être exécutée soit sur le même serveur où vous exécutez Discourse, soit sur un serveur différent.
Le plugin Discourse écoute les événements de nouveaux messages / nouveaux messages de chat, et met en file d’attente un travail de classification dans la file d’attente d’arrière-plan. Les résultats sont stockés dans la base de données afin que vous puissiez extraire des rapports, et nous signalons le contenu à l’aide d’un utilisateur bot distinct afin que nous puissions suivre la précision de ses signalements au fil du temps.
Options
Tout d’abord, le plugin fonctionne tel quel, il n’est donc pas nécessaire de modifier les paramètres immédiatement. Cependant, si vous souhaitez modifier le comportement du plugin, vous disposez de quelques options.
Nous proposons 3 modèles de classification différents que vous pouvez choisir dans les options du plugin :
- unbiased (par défaut) : Un modèle qui tente de réduire le biais involontaire du modèle dans la classification de la toxicité
- multilingual : Un modèle qui peut classifier l’italien, le français, le russe, le portugais, l’espagnol et le turc.
- original : Le modèle le plus simple.
Vous pouvez également ajuster si le plugin va :
- signaler automatiquement
- activer l’intervention synchrone sur les messages toxiques avec avertissement (expérimental)
- activer l’intervention synchrone sur les messages toxiques (non recommandé)
Tout ce qui précède ne se produit que lorsque le commentaire est classé comme dépassant les seuils pour chaque type de classification :
- toxicité
- toxicité sévère
- attaque identitaire
- insulte
- menace
- contenu sexuellement explicite
Vous pouvez ajuster chacun des seuils de classification pour les actions automatiques.
Service de classification
Le plugin est préconfiguré et fonctionne dès l’installation. Pour cela, il contacte un service géré par Discourse (CDCK) pour classifier le contenu de l’utilisateur. Ce service d’API de classification est open-source, et vous pouvez exécuter votre propre copie du service si nécessaire.



