Los shadowbans son malos para el discurso, y aquí te explicamos por qué

Dejando la moralidad a un lado, no veo cómo esto va a funcionar en una comunidad pequeña. Si los usuarios son un poco expertos en tecnología, es probable que descubran lo que está pasando. Incluso solo buscar en Google “Discourse shadowban” los llevará directamente a este tema.

3 Me gusta

¡Esta es una referencia importante!

Muchas conversaciones interesantes en este tema, pocas ideas principales diferentes a considerar.

Con Discourse, la función de poder silenciar/ignorar a alguien podría considerarse una forma de shadowban, pero solo para un individuo y no para todos los demás.

Con el sistema de marcado de publicaciones, esto no necesariamente honra el habeas corpus si los moderadores toman medidas en respuesta a las marcas mientras que las personas que marcaron algo permanecen anónimas. Sin embargo, esto queda a discreción de los moderadores cómo se revisan las marcas, idealmente sus decisiones se basan en su propia interpretación de lo que se está marcando en lugar de los informes de marcas en sí.

Existe una oportunidad para la diplomacia si un miembro de la comunidad elige identificarse como la persona que ha informado sobre algo que se ha publicado con una marca, ya sea por ser irrelevante, inapropiado o marcado por alguna otra razón. Sin embargo, existe el riesgo de una escalada a una discusión que no logre nada más que molestar a la gente.

En general, la razón por la que las plataformas pueden estar implementando medidas de la categoría shadowban podría ser para la desescalada/evitación de discusiones/conflictos, lo que puede parecer razonable desde una perspectiva de gestión comunitaria de querer que todos se lleven bien y estén de acuerdo en todo. Sin embargo, cuando hay desacuerdos legítimos sobre algo, puede ser mejor tener un espacio para que las personas expresen por qué/si están molestas para que puedan ser mejor comprendidas.

1 me gusta

Tiene sentido la forma en que lo describes, aunque no todo el mundo puede estar de acuerdo.

Para el desarrollo de funciones que publicaste en Marketplace, ¿es para una solución de código abierto o solo específicamente para tu caso de uso?

1 me gusta

¿Quieres decir que el cliente pediría un reembolso? Eso es poco probable si no saben que están siendo censurados. Y sería poco ético que siguieras aceptando su dinero mientras también los censuras sin su conocimiento.

Si, por otro lado, quieres decir que tú les reembolsarías, entonces no hay necesidad de censurar secretamente a ese usuario en absoluto. Si su cuenta ha sido cancelada, entonces ya no tienen acceso al servicio.

1 me gusta

Presupones que los usuarios saben que se les está haciendo shadowban, lo cual, según mis observaciones, la mayoría de las veces no es así. Los comentaristas activos generalmente no se dan cuenta cuando se les hace shadowban.

Los shadow bans se utilizan comúnmente en muchas plataformas importantes porque los usuarios o no saben de su existencia, o no creen que les suceda a ellos. Por lo tanto, los usuarios pierden tiempo comentando mientras las plataformas recaudan ingresos publicitarios basándose en un mayor número de usuarios, lo que logran con la ayuda del engaño.

3 Me gusta

Parecía que querían decir que se reembolsaría si alguien descubría que había sido baneado en la sombra y solicitaba un reembolso por ello, sin embargo, incluso si esa es su política, podría ser un posible riesgo de demanda si alguien hubiera estado pagando por una plataforma donde cree que la gente puede leer lo que publica, pero resulta que eso fue una mentira.

2 Me gusta

Parecía que querían decir que se reembolsaría si alguien descubría que había sido baneado en la sombra y solicitaba un reembolso por ello, sin embargo, incluso si esa es su política, podría ser un posible riesgo de demanda si alguien hubiera estado pagando por una plataforma donde cree que la gente puede leer lo que publica, pero resulta que eso fue una mentira.

Estoy de acuerdo contigo en que existen riesgos al usar baneos en la sombra, ya sea por demandas o por la confiabilidad de tu negocio.

Pero incluso sin una demanda, el objetivo aquí era determinar si los baneos en la sombra tienen algún caso de uso válido, no demostrar cómo engañar a los clientes para obtener su dinero. La respuesta a la pregunta del caso de uso válido es aún más fácil cuando se trata de clientes de pago. Simplemente dejas de aceptar su dinero, sin necesidad de baneos en la sombra.

4 Me gusta

Un posible caso de uso para una prohibición fantasma es para/con aquellos cuya intención parece ser únicamente causar interrupciones en un sitio comunitario, de tal manera que si son prohibidos abiertamente, querrán crear una nueva cuenta independientemente de la prohibición.

Si se puede identificar quién está tratando de hacer eso, entonces se podría simplemente rechazar la solicitud de aprobación de una nueva cuenta, es cierto.

Las prohibiciones fantasma no derrotan a los trolls, los empoderan. El número de personas que dedicarían el tiempo necesario para eludir las prohibiciones es relativamente pequeño, y es más probable que esos actores malintencionados descubran las prohibiciones fantasma que el usuario promedio de buena fe. Incluso en Reddit, que tiene técnicas avanzadas para identificar cuentas vinculadas, los moderadores todavía se quejan regularmente en r/ModSupport sobre usuarios que eluden tanto las prohibiciones como las prohibiciones fantasma. Lo que quieres, entonces, no son herramientas engañosas, quieres hacer crecer comunidades confiables. Eso lleva más tiempo, pero es mejor que fundar una comunidad en la desconfianza.

Cuando introduces prohibiciones fantasma en tu comunidad, la confianza desaparece. Por lo tanto, empoderas a los trolls que no tienen reparos en usar el engaño para “moderar”. Los trolls, ahora a cargo, terminan desplazando a los usuarios de buena fe que nunca imaginan que un foro les haría esto. En otras palabras, te conviertes en el rey troll. No querrías que alguien eliminara secretamente tus propios comentarios sin tu conocimiento, por lo que no tiene sentido hacerlo a otros, ni tiene sentido empoderar a otros para que lo hagan.

Con respecto a los bots o el spam, las prohibiciones fantasma no engañan a los bots, solo los captchas engañan a los bots. Las prohibiciones fantasma solo engañan a personas reales.

3 Me gusta

Bueno, para una comunidad de confianza, sería obvio si una cuenta hubiera sido silenciada.

Bueno, para una comunidad confiable, sería obvio si una cuenta hubiera sido silenciada.

No es confiable si usas shadow bans, pero en aras del argumento, ¿a quién le sería obvio esto? Ni al usuario silenciado en secreto, ni a la comunidad, ya que cada miembro no comentará sobre cada tema. Ten en cuenta que un shadow ban a menudo se aplica a comentarios individuales, no necesariamente a una cuenta completa.

Bueno, para una comunidad de digamos veinte personas, si tienen alguna comunicación fuera de la aplicación de shadow ban, en unos días la mayoría de la gente se daría cuenta de que no todo lo que han escrito se está publicando.

Hablando por teléfono, uno podría simplemente preguntar: “¿Oye, viste el comentario que escribí?”

Bueno, para una comunidad de, digamos, veinte personas, si tienen alguna comunicación fuera de la aplicación de shadow ban, en pocos días la mayoría de la gente se daría cuenta de que no todo lo que han escrito se está publicando.

Lo dudo. Esta práctica comenzó con los inicios de Internet y se disparó hasta lo que ahora ves: plataformas con miles de millones de usuarios.

De cualquier manera, vale la pena investigarlo. Alguien debería estar estudiando el impacto de los shadow bans. Hasta la fecha, no he visto tal estudio.

Esto estaría en la categoría de edición/filtrado de comentarios, “baneo” significa censura completa.

“Suspender” solo significa que algo no está permitido. Puede ser una palabra clave, un enlace, un tema, una cuenta o simplemente un comentario o punto de vista. El término “suspensión fantasma” (shadow ban) llamó la atención del público por primera vez en el contexto de suspensiones que se aplicaban en secreto a cuentas enteras. Sin embargo, las plataformas también omiten informar sobre toneladas de acciones contra publicaciones individuales a los autores de esas publicaciones.

El aspecto sombrío, donde el autor de una publicación filtrada/ralentizada/degradada/eliminada no sabe que alguien tomó medidas contra su contenido, es realmente la parte más importante y no debe omitirse. Prefiero el término general “moderación fantasma” (shadow moderation), sin embargo, a menudo uso “suspensión fantasma” (shadow ban) porque muchas personas ya han visto esa palabra en las noticias. Vea este artículo de WaPo, por ejemplo, que utiliza el término “suspensión fantasma” para describir acciones tanto contra cuentas enteras como contra publicaciones individuales.

1 me gusta

Ok, estoy de acuerdo en que puede ser un problema. Con Discourse, depende de los moderadores si quieren avisar a alguien de que sus publicaciones están siendo editadas/eliminadas como cortesía, generalmente es educado hacerlo. Con el sistema de marcado, existe la notificación automática si una publicación ha sido marcada y luego se le da al autor la oportunidad de revisar/editar la publicación después de un retraso de “enfriamiento” de diez minutos, este es un sistema sofisticado.

Con plataformas masivas como Google YouTube, las cosas son diferentes, he visto que si alguien es expulsado de un canal, esto significa que sus comentarios están siendo censurados, pero no se les notifica al respecto.

Sí, depende de la plataforma. No abogo por una solución legislativa para atar las manos de las plataformas. Eso solo le daría al gobierno el poder de censurar, que es precisamente lo que la primera enmienda prohíbe. Además, una solución legislativa podría no aplicarse a los servicios de redes sociales con sede en el extranjero. O si se aplicara, podría ser difícil de hacer cumplir.

Reddit y Twitter/X alguna vez fueron pequeños, sin embargo, también consideraron este tema, por ejemplo aquí en 2007:

Una mejor idea es un baneo silencioso. Deja que publique comentarios y muéstrale esos comentarios, pero simplemente déjalos fuera para todos los demás.

Por lo tanto, las plataformas pueden haber crecido con la ayuda de la moderación silenciosa. Al usarla, las plataformas engañan a los usuarios haciéndoles creer que pueden compartir sus puntos de vista sin ser censurados. En realidad, los usuarios pierden su tiempo escribiendo mientras las plataformas recaudan dinero de publicidad.

Estás usando el tiempo pasado, pero Twitter/X todavía hace esto en 2023.

4 Me gusta

Las diferencias de idioma son interesantes, ¿o es más una cuestión de cultura, pero en general solo el estado/gobierno puede censurar? Las partes privadas nunca. Y luego la moderación, ¿es transparente o encubierta, no es parte de la censura y el término censura se usa principalmente solo en… un significado atenuado?

Pero sigue, este es un tema interesante y estoy tratando de seguirlo.

2 Me gusta

Sí, desearía que la gente se centrara en esto. Es decir, cómo se elimina el contenido, en lugar de qué se elimina. Sería un simple cambio de código para revelar las prohibiciones fantasma existentes, y el CEO ya prometió hacerlo hace un año.

La demora, dice el exjefe de Confianza y Seguridad de X, Yoel Roth dice, es que X también debe explicar a los usuarios el motivo de la prohibición fantasma. Él dice que, dado que estas explicaciones están en notas de texto libre que no fueron escritas para los ojos del público, primero deben clasificarse antes de que se pueda informar a las personas sobre sus prohibiciones fantasma.

No me creo esa explicación. El “aviso desnudo”, como lo describe aquí un investigador, está separado de las explicaciones, y la necesidad de categorización no es una excusa para seguir engañando a los usuarios.

Cada vez que veo a personas que tergiversan al CEO de X como el nuevo campeón de la libertad de expresión, intento aclarar los hechos, pero no tengo muchos seguidores. Personalmente, no creo que podamos depender de ningún individuo u organización para que nos brinde libertad de expresión. Cada uno de nosotros debe asumir esa responsabilidad. Ciertamente deberíamos unirnos cuando sea posible, pero si estás esperando que alguien más proteja tu discurso, corres el riesgo de ser engañado.

2 Me gusta