Discourse AI - Toxicité

:bookmark: Ce sujet couvre la configuration de la fonctionnalité de toxicité du plugin Discourse AI.

:person_raising_hand: Niveau d’utilisateur requis : Administrateur

Les modules de toxicité peuvent classifier automatiquement le score de toxicité de chaque nouveau message et de chaque message de chat dans votre instance Discourse. Vous pouvez également activer le signalement automatique du contenu qui dépasse un seuil.

Les classifications sont stockées dans la base de données, vous pouvez donc activer le plugin et utiliser Data Explorer pour obtenir des rapports sur la classification du nouveau contenu dans Discourse immédiatement. Nous expédierons bientôt des requêtes Data Explorer par défaut avec le plugin pour faciliter cela.

Paramètres

  • ai_toxicity_enabled : Active ou désactive le module.

  • ai_toxicity_inference_service_api_endpoint : URL où l’API du module de toxicité est exécutée. Si vous utilisez l’hébergement CDCK, cela est géré automatiquement pour vous. Si vous auto-hébergez, consultez le guide d’auto-hébergement.

  • ai_toxicity_inference_service_api_key : Clé API pour l’API de toxicité configurée ci-dessus. Si vous utilisez l’hébergement CDCK, cela est géré automatiquement pour vous. Si vous auto-hébergez, consultez le guide d’auto-hébergement.

  • ai_toxicity_inference_service_api_model : ai_toxicity_inference_service_api_model : Nous proposons trois modèles différents : original, unbiased et multilingual. unbiased est recommandé par rapport à original car il essaiera de ne pas reporter les biais introduits par le matériel d’entraînement dans la classification. Pour les communautés multilingues, le dernier modèle prend en charge l’italien, le français, le russe, le portugais, l’espagnol et le turc.

  • ai_toxicity_flag_automatically : Signaler automatiquement les messages/messages de chat lorsque la classification d’une catégorie spécifique dépasse le seuil configuré. Les catégories disponibles sont toxicity, severe_toxicity, obscene, identity_attack, insult, threat et sexual_explicit. Il existe un paramètre ai_toxicity_flag_threshold_${category} pour chacun d’eux.

  • ai_toxicity_groups_bypass : Les utilisateurs de ces groupes ne verront pas leurs messages classifiés par le module de toxicité. Par défaut, cela inclut les utilisateurs du personnel.

Ressources supplémentaires

10 « J'aime »