Este tópico cobre a configuração do recurso NSFW (Not Safe For Work) do plugin Discourse AI.
Nível de usuário necessário: Administrador
Os módulos NSFW podem classificar automaticamente a pontuação NSFW de cada novo upload de imagem em postagens e mensagens de chat em sua instância do Discourse. Este sistema ajuda a identificar e gerenciar conteúdo que pode ser inadequado ou explícito para um ambiente profissional ou público.
Você também pode habilitar a sinalização automática de conteúdo que ultrapassa um limite.
Configurações
ai_nsfw_detection_enabled: Habilita ou desabilita o módulo
ai_nsfw_inference_service_api_endpoint: URL onde a API está em execução para o módulo. Se você estiver usando hospedagem CDCK, isso é tratado automaticamente para você. Se você estiver auto-hospedando, consulte o guia de auto-hospedagem.
ai_nsfw_inference_service_api_key: Chave de API para a API configurada acima. Se você estiver usando hospedagem CDCK, isso é tratado automaticamente para você. Se você estiver auto-hospedando, consulte o guia de auto-hospedagem.
ai_nsfw_models: O modelo que usaremos para classificação de imagens. Oferecemos dois diferentes com seus limites:
- opennsfw2 retorna uma única pontuação entre
0.0e1.0. Defina o limite para que um upload seja considerado NSFW através da configuraçãoai_nsfw_flag_threshold_general.- nsfw_detector retorna pontuações para quatro categorias:
drawings,hentai,pornesexy. Defina o limite para cada uma através da configuraçãoai_nsfw_flag_threshold_${category}respectiva. Se o geral for menor que qualquer um destes, consideraremos o conteúdo NSFW.ai_nsfw_flag_automatically: Sinaliza automaticamente postagens/mensagens de chat que estão acima dos limites configurados. Quando esta configuração está desabilitada, apenas armazenamos os resultados da classificação no banco de dados.
Recursos adicionais
11 curtidas