I’m planning to launch a Discourse community, and maybe it’s a stupid question, but after reading your post, I wonder if there is any protection in this platform against AI-generated spam or some coordinated abuse ?
I use this on my public forum and it works great - fight ai spam with ai spam detection. literally none make it to live posts.
You might be interested in Documentation about spam
https://meta.discourse.org/tags/c/documentation/10/spam
So this is a spam protection per post I guess..
Ok and is there anything else to protect the forum?
Not following, did you read the documentation? There are many mitigations in place, some using AI some not.
Perhaps brainstorm a bit with ask.discourse.com , it is aware of all the little edge cases here.
Sure, on it. Thanks!
Похоже, что AI-определение спама очень эффективно справляется с очевидным спамом в отдельных постах.
Меня интересует, как команды справляются с ситуациями, когда ни один отдельный пост не нарушает правила, но активность нескольких аккаунтов или активность в течение времени кажется скоординированной или «странной».
Есть ли для этого встроенные рабочие процессы?
Именно здесь вступают в игру функции модерации сообщества. Если ваши участники заметят что-то подозрительное в том или ином посте, они могут пометить его. Причина «Другое» удобна для того, чтобы сообщить модераторам о замеченной тенденции.
Понятно, спасибо за уточнение.
Из чистого любопытства: как это обычно масштабируется в крупных или очень активных сообществах? Обычно ли система флага достаточно явно выявляет тенденции, или модераторам иногда приходится вручную сопоставлять активность между постами и аккаунтами?