Discourse AI - NSFW

:bookmark: Ce sujet couvre la configuration de la fonctionnalité NSFW (Not Safe For Work) du plugin Discourse AI.

:person_raising_hand: Niveau d’utilisateur requis : Administrateur

Les modules NSFW peuvent classifier automatiquement le score NSFW de chaque nouvelle image téléchargée dans les publications et les messages de chat de votre instance Discourse. Ce système aide à identifier et à gérer le contenu qui pourrait être inapproprié ou explicite pour un environnement professionnel ou public.

Vous pouvez également activer le signalement automatique du contenu qui dépasse un certain seuil.

Paramètres

  • ai_nsfw_detection_enabled : Active ou désactive le module.

  • ai_nsfw_inference_service_api_endpoint : URL où l’API est exécutée pour le module. Si vous utilisez l’hébergement CDCK, cela est géré automatiquement pour vous. Si vous auto-hébergez, consultez le guide d’auto-hébergement.

  • ai_nsfw_inference_service_api_key : Clé API pour l’API configurée ci-dessus. Si vous utilisez l’hébergement CDCK, cela est géré automatiquement pour vous. Si vous auto-hébergez, consultez le guide d’auto-hébergement.

  • ai_nsfw_models : Le modèle que nous utiliserons pour la classification d’images. Nous en proposons deux avec leurs seuils :

    • opennsfw2 renvoie un score unique entre 0.0 et 1.0. Définissez le seuil pour qu’un téléchargement soit considéré comme NSFW via le paramètre ai_nsfw_flag_threshold_general.
    • nsfw_detector renvoie des scores pour quatre catégories : drawings, hentai, porn et sexy. Définissez le seuil pour chacune d’elles via le paramètre respectif ai_nsfw_flag_threshold_${category}. Si le seuil général est inférieur à l’un de ceux-ci, nous considérerons le contenu comme NSFW.
  • ai_nsfw_flag_automatically : Signale automatiquement les publications/messages de chat qui dépassent les seuils configurés. Lorsque ce paramètre est désactivé, nous stockons uniquement les résultats de classification dans la base de données.

Ressources supplémentaires

11 « J'aime »