Discourse AI - NSFW

:bookmark: Este tópico cobre a configuração do recurso NSFW (Not Safe For Work) do plugin Discourse AI.

:person_raising_hand: Nível de usuário necessário: Administrador

Os módulos NSFW podem classificar automaticamente a pontuação NSFW de cada novo upload de imagem em postagens e mensagens de chat em sua instância do Discourse. Este sistema ajuda a identificar e gerenciar conteúdo que pode ser inadequado ou explícito para um ambiente profissional ou público.

Você também pode habilitar a sinalização automática de conteúdo que ultrapassa um limite.

Configurações

  • ai_nsfw_detection_enabled: Habilita ou desabilita o módulo

  • ai_nsfw_inference_service_api_endpoint: URL onde a API está em execução para o módulo. Se você estiver usando hospedagem CDCK, isso é tratado automaticamente para você. Se você estiver auto-hospedando, consulte o guia de auto-hospedagem.

  • ai_nsfw_inference_service_api_key: Chave de API para a API configurada acima. Se você estiver usando hospedagem CDCK, isso é tratado automaticamente para você. Se você estiver auto-hospedando, consulte o guia de auto-hospedagem.

  • ai_nsfw_models: O modelo que usaremos para classificação de imagens. Oferecemos dois diferentes com seus limites:

    • opennsfw2 retorna uma única pontuação entre 0.0 e 1.0. Defina o limite para que um upload seja considerado NSFW através da configuração ai_nsfw_flag_threshold_general.
    • nsfw_detector retorna pontuações para quatro categorias: drawings, hentai, porn e sexy. Defina o limite para cada uma através da configuração ai_nsfw_flag_threshold_${category} respectiva. Se o geral for menor que qualquer um destes, consideraremos o conteúdo NSFW.
  • ai_nsfw_flag_automatically: Sinaliza automaticamente postagens/mensagens de chat que estão acima dos limites configurados. Quando esta configuração está desabilitada, apenas armazenamos os resultados da classificação no banco de dados.

Recursos adicionais

11 curtidas