Ce sujet couvre la configuration de la fonctionnalité NSFW (Not Safe For Work) du plugin Discourse AI.
Niveau d’utilisateur requis : Administrateur
Les modules NSFW peuvent classifier automatiquement le score NSFW de chaque nouvelle image téléchargée dans les publications et les messages de chat de votre instance Discourse. Ce système aide à identifier et à gérer le contenu qui pourrait être inapproprié ou explicite pour un environnement professionnel ou public.
Vous pouvez également activer le signalement automatique du contenu qui dépasse un certain seuil.
Paramètres
ai_nsfw_detection_enabled : Active ou désactive le module.
ai_nsfw_inference_service_api_endpoint : URL où l’API est exécutée pour le module. Si vous utilisez l’hébergement CDCK, cela est géré automatiquement pour vous. Si vous auto-hébergez, consultez le guide d’auto-hébergement.
ai_nsfw_inference_service_api_key : Clé API pour l’API configurée ci-dessus. Si vous utilisez l’hébergement CDCK, cela est géré automatiquement pour vous. Si vous auto-hébergez, consultez le guide d’auto-hébergement.
ai_nsfw_models : Le modèle que nous utiliserons pour la classification d’images. Nous en proposons deux avec leurs seuils :
- opennsfw2 renvoie un score unique entre
0.0et1.0. Définissez le seuil pour qu’un téléchargement soit considéré comme NSFW via le paramètreai_nsfw_flag_threshold_general.- nsfw_detector renvoie des scores pour quatre catégories :
drawings,hentai,pornetsexy. Définissez le seuil pour chacune d’elles via le paramètre respectifai_nsfw_flag_threshold_${category}. Si le seuil général est inférieur à l’un de ceux-ci, nous considérerons le contenu comme NSFW.ai_nsfw_flag_automatically : Signale automatiquement les publications/messages de chat qui dépassent les seuils configurés. Lorsque ce paramètre est désactivé, nous stockons uniquement les résultats de classification dans la base de données.
Ressources supplémentaires
11 « J'aime »