Recientemente hemos añadido un par de palabras clave a nuestra instancia.
Sin embargo, nuestro usuario descubrió formas de evitarlas como se muestra a continuación. ¿Discourse elimina automáticamente las etiquetas HTML no compatibles o no? Estas se incluyeron en la publicación y no activaron el sistema de revisión.
@jimmy0017 ¿recibiste una respuesta que satisfaga tus necesidades? La respuesta de Jay es acertada. Las palabras vigiladas pueden ser superadas por personas que están decididas a portarse mal. Necesitas usar la moderación para asegurarte de que sepan las reglas y que deben cumplirlas para ser parte de tu comunidad.
Sí… Pero entonces el problema es que también tendemos a recibir más registros de “bots”. Tenemos un par de moderadores vigilando estas cosas. Pero principalmente, simplemente no queremos que nuestros usuarios vean ese contenido en primer lugar. Hemos prohibido a bastantes usuarios “para siempre” por eludir deliberadamente las palabras vigiladas.
Pensaremos en la detección de spam con IA y veremos si es algo que vamos a hacer. Simplemente porque esta es una forma más directa de “vigilar palabras” que usar una IA LLM.
Me temo que si eso fuera cierto, no habrías escrito esta publicación. Tienes bots que son más listos que la función de “palabras vigiladas”. Además, es muy probable que sean humanos reales (aunque los bots pueden haber mejorado tanto en el último año que los humanos que creaban nuevas cuentas han perdido sus trabajos).
La otra cosa que podrías hacer sería aprobar todas las publicaciones de usuarios TL0/1. Si no obtienes muchos usuarios legítimos nuevos que se entristecerán si su publicación no aparece de inmediato, esa podría ser una solución “directa”.