Cómo configuro la protección contra spam de IA

Estoy planeando lanzar una comunidad de Discourse, y tal vez sea una pregunta estúpida, pero después de leer su publicación, me pregunto si hay alguna protección en esta plataforma contra el spam generado por IA o algún abuso coordinado.

1 me gusta

Lo uso en mi foro público y funciona muy bien: combate el spam de IA con detección de spam de IA. Literalmente, ninguno llega a las publicaciones en vivo.

5 Me gusta

Podría interesarte la #documentación sobre spam
https://meta.discourse.org/tags/c/documentation/10/spam

3 Me gusta

Supongo que esta es una protección contra spam por publicación…

Ok ¿y hay algo más para proteger el foro?

No sigo, ¿leíste la documentación? Hay muchas mitigaciones implementadas, algunas usando IA y otras no.

Quizás podrías hacer una lluvia de ideas con ask.discourse.com, está al tanto de todos los pequeños casos límite aquí.

7 Me gusta

Claro, estoy en ello. ¡Gracias!

Parece que la detección de spam de IA maneja muy bien el spam obvio por publicación individual.

Tengo curiosidad por saber cómo los equipos manejan situaciones en las que ninguna publicación individual infringe las reglas, pero la actividad en varias cuentas o a lo largo del tiempo todavía se siente coordinada o “extraña”. ¿Existen flujos de trabajo integrados para eso?

2 Me gusta

Ahí es donde entran en juego las funciones de moderación comunitaria. Si tus miembros notan que algo no está bien en una publicación determinada, pueden marcarla. El motivo “algo más” es útil como forma de informar a los moderadores sobre una tendencia notada.

1 me gusta

Tiene sentido, gracias por la aclaración.

Por curiosidad, ¿cómo escala esto típicamente en comunidades más grandes o muy activas? ¿El sistema de marcado suele mostrar las tendencias con suficiente claridad, o los moderadores a veces necesitan correlacionar la actividad entre publicaciones y cuentas manualmente?