Este recurso agora faz parte do Discourse AI. Este plugin está obsoleto.
|||-
| Resumo | Disorder ajuda moderadores sinalizando automaticamente conteúdo potencialmente tóxico em seu fórum Discourse.
| Link do Repositório | https://github.com/xfalcox/disorder
| Guia de Instalação | Como instalar plugins no Discourse
Se você estiver usando nosso serviço oficial de hospedagem, entre em contato com nosso suporte para registrar seu interesse neste plugin.
Toxicidade
Como @hawk disse em Dealing with Toxicity in Online Communities, gerenciar a toxicidade em sua comunidade é fundamental.
Embora o Discourse venha pronto para uso com muitas ferramentas diferentes para ajudar a gerenciar a toxicidade em sua comunidade, estamos sempre pesquisando maneiras de melhorá-la ainda mais. Em particular, tenho pesquisado sobre possíveis aplicações de Machine Learning e IA em fóruns online. Que agora é um plugin experimental, disponível para todas as comunidades.
O plugin
O Disorder utiliza Inteligência Artificial e Machine Learning para ajudá-lo a moderar sua comunidade, tornando mais fácil para sua equipe de moderação ficar por dentro de conteúdo potencialmente problemático e até mesmo, opcionalmente, incentivar seus usuários a revisar postagens tóxicas antes de publicá-las.
Este é um primeiro passo no uso de modelos de ML auto-hospedados no Discourse e, embora seja um modelo simples, estabelece um padrão que pode ser reutilizado para aplicar modelos mais complexos no futuro.
Funcionalidades
Sinalização em Segundo Plano
Este é o principal modo de operação do Disorder, pois é completamente transparente para seus usuários, que não estarão cientes de quaisquer alterações.
Sempre que uma nova postagem (ou mensagem de chat usando Discourse Chat) é criada, ela será colocada em uma fila de classificação de forma assíncrona. Caso a classificação retorne acima de um limite configurável, a postagem/mensagem de chat será sinalizada para que sua equipe de moderação seja alertada e possa tomar a decisão final sobre a sinalização.
Intervenção em Nova Postagem
Se você acha que a prevenção é o melhor remédio, pode se interessar por esta opção mais ativa.
Você pode habilitar uma classificação síncrona de qualquer nova postagem que, se acima de um limite configurável de toxicidade, acionará uma intervenção no fluxo de novas postagens, pedindo ao usuário para revisar e fazer emendas na mensagem que possa estar fora dos limites estabelecidos pelas regras de sua comunidade.
Isso acontecerá apenas uma vez e, após fechar o modal, o usuário poderá postar normalmente.
Como funciona?
Este plugin integra os modelos de código aberto do Detoxify, usando um modelo de chamada de API remota para permitir que os administradores dimensionem adequadamente a taxa de inferência às necessidades de cada comunidade.
Fornecemos uma imagem simples que fornece uma API HTTP fina que o Discourse chamará para realizar a classificação de conteúdo, que pode ser executada tanto no mesmo servidor onde você executa o Discourse, quanto em um servidor diferente.
O plugin Discourse escuta os eventos de novas postagens / novas mensagens de chat e enfileira um trabalho de classificação na fila de segundo plano. Os resultados são armazenados no banco de dados para que você possa extrair relatórios, e sinalizamos o conteúdo usando um usuário bot separado para que possamos rastrear a precisão de sua sinalização ao longo do tempo.
Opções
Primeiro, o plugin funciona pronto para uso, portanto, não é necessário alterar nenhuma configuração imediatamente. No entanto, se você quiser alterar o comportamento do plugin, existem alguns botões que você pode usar.
Fornecemos 3 modelos de classificação diferentes que você pode escolher nas opções do plugin:
-
unbiased (padrão): Um modelo que tenta reduzir o viés não intencional do modelo na classificação de toxicidade.
-
multilingual: Um modelo que pode classificar italiano, francês, russo, português, espanhol e turco.
-
original: Modelo mais simples.
Você também pode ajustar se o plugin irá:
- sinalizar automaticamente
- habilitar intervenção síncrona em postagens tóxicas com aviso (experimental)
- habilitar intervenção síncrona em postagens tóxicas (não recomendado)
Tudo o que o acima mencionado acontece apenas quando o comentário é classificado como acima dos limites para cada tipo de classificação:
- toxicidade
- toxicidade_severa
- ataque_identidade
- insulto
- ameaça
- sexual_explícito
Você pode ajustar cada um dos limites de classificação para ações automáticas.
Serviço de Classificação
O plugin vem pré-configurado funcionando pronto para uso. Para isso, ele está contatando um serviço executado pelo Discourse (CDCK) para classificar o conteúdo do usuário. Esse serviço de API de classificador é de código aberto e você pode executar sua própria cópia do serviço, se necessário.



