Discourse AI - NSFW

:bookmark: Este tema cubre la configuración de la función NSFW (Not Safe For Work) del plugin Discourse AI.

:person_raising_hand: Nivel de usuario requerido: Administrador

Los módulos NSFW pueden clasificar automáticamente la puntuación NSFW de cada nueva carga de imagen en publicaciones y mensajes de chat en tu instancia de Discourse. Este sistema ayuda a identificar y gestionar contenido que puede ser inapropiado o explícito para un entorno profesional o público.

También puedes habilitar el marcado automático de contenido que cruza un umbral.

Configuración

  • ai_nsfw_detection_enabled: Habilita o deshabilita el módulo

  • ai_nsfw_inference_service_api_endpoint: URL donde se está ejecutando la API para el módulo. Si estás utilizando alojamiento CDCK, esto se maneja automáticamente por ti. Si te alojas tú mismo, consulta la guía de autoalojamiento.

  • ai_nsfw_inference_service_api_key: Clave API para la API configurada anteriormente. Si estás utilizando alojamiento CDCK, esto se maneja automáticamente por ti. Si te alojas tú mismo, consulta la guía de autoalojamiento.

  • ai_nsfw_models: El modelo que utilizaremos para la clasificación de imágenes. Ofrecemos dos diferentes con sus umbrales:

    • opennsfw2 devuelve una sola puntuación entre 0.0 y 1.0. Establece el umbral para que una carga se considere NSFW a través de la configuración ai_nsfw_flag_threshold_general.
    • nsfw_detector devuelve puntuaciones para cuatro categorías: drawings, hentai, porn y sexy. Establece el umbral para cada una a través de la configuración respectiva ai_nsfw_flag_threshold_${category}. Si la general es menor que cualquiera de estas, consideraremos el contenido NSFW.
  • ai_nsfw_flag_automatically: Marca automáticamente las publicaciones/mensajes de chat que están por encima de los umbrales configurados. Cuando esta configuración está deshabilitada, solo almacenamos los resultados de la clasificación en la base de datos.

Recursos adicionales

11 Me gusta