Estou planejando lançar uma comunidade no Discourse, e talvez seja uma pergunta estúpida, mas depois de ler sua postagem, eu me pergunto se há alguma proteção nesta plataforma contra spam gerado por IA ou algum abuso coordenado?
Eu uso isso no meu fórum público e funciona muito bem - combata o spam de IA com detecção de spam de IA. Literalmente, nenhum deles chega às postagens ao vivo.
Você pode se interessar por #documentação sobre spam
https://meta.discourse.org/tags/c/documentation/10/spam
Então esta é uma proteção contra spam por postagem, eu acho…
Ok e há mais alguma coisa para proteger o fórum?
Não estou acompanhando, você leu a documentação? Existem muitas mitigações em vigor, algumas usando IA e outras não.
Talvez debater um pouco em ask.discourse.com, ele está ciente de todos os pequenos casos extremos aqui.
Certo, estou nisso. Obrigado!
Parece que a detecção de spam da IA lida muito bem com spam óbvio por postagem individual.
Tenho curiosidade sobre como as equipes lidam com situações em que nenhuma postagem individual viola as regras, mas a atividade em várias contas ou ao longo do tempo ainda parece coordenada ou “estranha”. Existem fluxos de trabalho integrados para isso?
É aí que entram os recursos de moderação da comunidade. Se seus membros notarem que algo está errado com uma determinada publicação, eles podem sinalizá-la. O motivo “outro” é útil como uma forma de informar aos moderadores sobre uma tendência notada.
Faz sentido, obrigado por esclarecer.
Por curiosidade, como isso geralmente escala em comunidades maiores ou muito ativas? O sistema de sinalização geralmente revela as tendências com clareza suficiente, ou os moderadores às vezes precisam correlacionar a atividade entre publicações e contas manualmente?