Discourse AI - Toxicidad

:bookmark: Este tema cubre la configuración de la función de toxicidad del plugin Discourse AI.

:person_raising_hand: Nivel de usuario requerido: Administrador

Los módulos de toxicidad pueden clasificar automáticamente la puntuación de toxicidad de cada nueva publicación y mensaje de chat en tu instancia de Discourse. También puedes habilitar el marcado automático de contenido que supere un umbral.

Las clasificaciones se almacenan en la base de datos, por lo que puedes habilitar el plugin y usar Data Explorer para obtener informes de la clasificación que ocurre para contenido nuevo en Discourse de inmediato. Pronto enviaremos algunas consultas predeterminadas de Data Explorer con el plugin para facilitar esto.

Configuración

  • ai_toxicity_enabled: Habilita o deshabilita el módulo

  • ai_toxicity_inference_service_api_endpoint: URL donde se está ejecutando la API para el módulo de toxicidad. Si estás utilizando el hosting de CDCK, esto se maneja automáticamente. Si lo estás autoalojando, consulta la guía de autoalojamiento.

  • ai_toxicity_inference_service_api_key: Clave API para la API de toxicidad configurada anteriormente. Si estás utilizando el hosting de CDCK, esto se maneja automáticamente. Si lo estás autoalojando, consulta la guía de autoalojamiento.

  • ai_toxicity_inference_service_api_model: ai_toxicity_inference_service_api_model: Ofrecemos tres modelos diferentes: original, unbiased y multilingual. Se recomienda unbiased sobre original porque intentará no arrastrar los sesgos introducidos por el material de entrenamiento a la clasificación. Para comunidades multilingües, el último modelo admite italiano, francés, ruso, portugués, español y turco.

  • ai_toxicity_flag_automatically: Marca automáticamente las publicaciones/mensajes de chat cuando la clasificación para una categoría específica supera el umbral configurado. Las categorías disponibles son toxicity, severe_toxicity, obscene, identity_attack, insult, threat y sexual_explicit. Hay una configuración ai_toxicity_flag_threshold_${category} para cada una.

  • ai_toxicity_groups_bypass: Los usuarios de esos grupos no tendrán sus publicaciones clasificadas por el módulo de toxicidad. Por defecto incluye a los usuarios del personal.

Recursos adicionales

10 Me gusta