Y este es un ejemplo de los mismos spammers siendo atrapados aquí: https://meta.discourse.org/t/full-list-of-quickbooks-desktop-support-contact-numbers-a-complete-call-center-in-the-usa/380776 (ya está oculto).
Estos tipos definitivamente están trabajando duro.
Gran trabajo en esta función. Así es exactamente como me gusta ver el uso de la IA.
Pregunta rápida: cuando un nuevo usuario TL0 envía una respuesta o un tema, ¿hay un retraso mientras se escanea el contenido?
Veo un pequeño retraso en el probador integrado (captura de pantalla a continuación), pero cuando publico desde una cuenta de prueba, no hay una pausa similar. ¿El escaneo en vivo es asíncrono después de la publicación, y la publicación se oculta solo si infringe una regla? (contexto: estoy usando la API de OpenAI ChatGPT 5).
Por lo que vale, IA > Spam y Estadísticas se incrementan según lo esperado con la cuenta de prueba, por lo que la publicación SÍ se está escaneando; simplemente no introduce el mismo retraso que el botón Test.
Ok, esto funciona bastante bien, pero ¿qué sucede cuando marca docenas de temas/usuarios? No veo una forma de prohibir/eliminar en masa a estos usuarios/publicaciones.
Gracias por el hilo detallado. Tenemos habilitada la detección de spam de Discourse AI en nuestra instancia, y una de las cosas que estamos viendo es la acción de silenciar automáticamente por defecto cuando se marca la primera publicación realizada por una cuenta.
Entiendo que esto es para silenciar a los spammers de un solo disparo; sin embargo, esto está causando problemas en los que aprobar/aceptar una marca significa que el usuario permanecerá silenciado en casos en los que queremos aprobar la marca pero no silenciar al usuario. Sería bueno tener:
un botón de “aceptar y mantener silenciado”, y
un botón separado de “aceptar y levantar el silencio”.