Los shadowbans son malos para el discurso, y aquí te explicamos por qué

He leído algunas publicaciones alentadoras aquí sobre el tema de la moderación, como la de @codinghorror aquí1, y quería aportar mi granito de arena.

Las recientes revelaciones de Twitter1 han reavivado el debate sobre el uso de herramientas de moderación similares a los shadowbans. ¿Son buenas o malas para el discurso? Con esta publicación, espero generar un debate entre moderadores y usuarios sobre el uso de los shadowbans.

Mi hipótesis es que la moderación transparente fomenta una base de usuarios preparada donde moderadores y usuarios confían mutuamente, y la moderación oculta crea más problemas de los que resuelve. Por lo tanto, sostengo que cosas como el shadowban nunca debieran usarse, ni siquiera para foros “pequeños” como las instalaciones de Discourse.

Sobre mí

Soy el autor de Reveddit, un sitio que muestra a los Redditors su contenido eliminado en secreto. Reveddit se lanzó en 2018 y desde entonces he sido muy vocal en Reddit1, Hacker News1 y más recientemente en Twitter1 sobre mi oposición al uso generalizado de herramientas similares a los shadowbans, que llamo Moderación Oculta. En caso de que haya alguna duda de que alguna forma de moderación oculta está ocurriendo en todas las plataformas más populares, por favor, vea también mi charla para Truth and Trust Online 20221, diapositivas 8-9 a las 5:50, o mi aparición en Using the Whole Whale1. Si hay alguna duda de que la práctica es impopular entre los usuarios de todos los ámbitos, por favor, vea las reacciones de miles de usuarios en las FAQ de Reveddit1.

Prefacio

A modo de referencia, aquí hay algunas definiciones existentes de comportamiento similar a shadowban:

  • “hacer que el contenido de alguien sea deliberadamente indetectable para todos excepto para la persona que lo publicó, sin que el autor original lo sepa”. - Blog de Twitter1
  • “Un usuario hellbanned es invisible para todos los demás usuarios, pero crucialmente, no para él mismo. Desde su perspectiva, está participando normalmente en la comunidad, pero nadie le responde. Ya no puede perturbar la comunidad porque es efectivamente un fantasma”. - Coding Horror1

Y aquí hay dos definiciones mías:

  • Moderación Transparente: Cuando se notifica a los usuarios de las acciones tomadas contra su contenido.

  • Moderación Oculta: Cualquier cosa que oculte las acciones del moderador al autor del contenido afectado.

Tenga en cuenta que cuando las plataformas hablan de transparencia, simplemente quieren decir que delinean claramente sus políticas. Esto no es lo mismo que la moderación transparente.

Y para que quede claro, apoyo el uso de la moderación que sea transparente. No apoyo la intervención gubernamental en las redes sociales para imponer la transparencia a las plataformas, como lo intentan PATA1 en EE. UU. o la DSA1 en Europa (Ley de Responsabilidad y Transparencia de Plataformas y Ley de Servicios Digitales, respectivamente). Por lo tanto, también acepto el derecho legal de las plataformas a participar en la moderación oculta.

El argumento a favor de la moderación transparente

El argumento a favor de la moderación transparente se define mejor como un argumento en contra de la moderación oculta.

La moderación oculta va en contra del hábeas corpus, un concepto milenario de que el acusado tiene derecho a enfrentarse a su acusador. Los valores del hábeas corpus están consagrados en la Constitución de los EE. UU. como una enmienda (la 6ª), pero también es una dignidad básica que esperamos para nosotros y, por lo tanto, debemos dar a los demás. En pocas palabras, los castigos secretos son injustos.

Ahora podrías decir: “¡pero estas son plataformas privadas!”. De hecho lo son. Sin embargo, en privado todavía nos esforzamos por defender ciertos ideales, como explica Greg Lukianoff de FIRE aquí.

John Stuart Mill hizo el mismo argumento en Sobre la libertad, donde escribió: “La protección, por lo tanto, contra la tiranía del magistrado no es suficiente: se necesita protección también contra la tiranía de la opinión y el sentimiento predominantes.” 1

Ahora podrías decir: “¡Lo necesitamos para lidiar con el spam de bots!”. Esto solo funcionará por un corto tiempo. A largo plazo, los bots descubrirán cómo verificar la visibilidad de su contenido, mientras que los usuarios en su mayoría no lo harán. Por lo tanto, la moderación transparente funcionará igual de bien para los bots, y la moderación oculta solo perjudica a los individuos genuinos.

Quizás dirás: “Solo lo estoy usando en un foro pequeño”. Y ahí preguntaría, ¿es realmente necesario recurrir al engaño? Sentirse cómodo con la moderación oculta en una instalación pequeña de Discourse puede ser un trampolín para apoyar su uso en plataformas más grandes, y el daño allí es claro para mí. Todos los lados de cada tema en cada geografía en cada plataforma se ven afectados. Más del 50% de los Redditors tienen algún comentario eliminado en el último mes de uso. Interrumpe innumerables conversaciones, quizás por miedo a lo que sucederá si el odio se “desata”. Pero Reveddit existe desde hace cuatro años, y eso no ha sucedido. En cambio, lo que he observado son comunidades más saludables, y he enlazado muchos ejemplos de ello en mi charla.

La moderación oculta a escala también empodera a tu oponente ideológico. Los grupos que consideras incivilizados son más propensos a hacer un uso incivil de la moderación oculta. Cualquier beneficio que tengas mientras estás en la posición de poder para implementar tales herramientas se erosionará con el tiempo. Y mientras utilices la moderación oculta, no ganarás argumentos sobre su uso en otros lugares.

Hasta donde sé, se ha investigado poco para estudiar los efectos de la moderación oculta. Conozco un estudio que indica que la carga de trabajo del moderador disminuye a medida que aumenta la transparencia1. Sin embargo, sabemos que las sociedades abiertas prosperan en comparación con las que están cerradas.

Sin control, la moderación oculta fomenta grupos tribales aislados que no están preparados para conversaciones del mundo real donde tales protecciones no están disponibles. Eso puede llevar a actos de violencia o autolesiones porque el daño infligido por las palabras es real cuando no logramos aceptar los límites de lo que podemos controlar. En cambio, podemos optar por responder al odio con contra-discurso y animar a las bases de usuarios a hacer lo mismo.

Finalmente, la nueva legislación no puede resolver esto por nosotros. Cualquier ley de este tipo infringiría nuestras libertades individuales y tendría la consecuencia no deseada de (a) empoderar a la misma entidad contra la que se diseñó la declaración de derechos, o (b) no funcionar, ya que no hay forma de hacer cumplir la transparencia sin dar al gobierno acceso a todo el código. Así que vuelves al punto de partida o estás peor que cuando empezaste. El apoyo al hábeas corpus y, por lo tanto, al discurso civil, se logra mejor a través del apoyo cultural a la moderación realmente transparente. Cualquier cosa menos que esto sería una tirita que cubre una herida supurante.

Conclusión

En conclusión, uno no debe adoptar la postura de “él lo está haciendo, así que tengo que hacerlo para competir en igualdad de condiciones”. Considere en cambio que ambos pueden tener una base precaria. Las instalaciones de Discourse y otros foros que no utilizan la moderación oculta tienen una base más sólida. Sus bases de usuarios están preparadas, los moderadores y los usuarios confían mutuamente y, por lo tanto, ambos se sienten libres de hablar abierta y honestamente. Y, dado el uso generalizado de la moderación oculta, ahora es más importante que nunca apoyar vocalmente la moderación transparente.

Apéndice

Un uso de la moderación oculta en Twitter aún no reportado puede ser cuando los Tweets se ocultan automáticamente en función de las menciones de ciertos enlaces. Descubrí esto cuando compartí un enlace a mi nuevo blog para el cual había comprado un dominio barato de $2 al año con la TLD .win. Después de compartirlo a través de Twitter, noté que mis tweets aparecían para MÍ pero NO para otros. Por ejemplo, este tweet1 no muestra la respuesta mía, incluso cuando haces clic en el botón “Mostrar respuestas adicionales”. Para ver mi respuesta, tienes que acceder al enlace directamente1. Efectivamente, esa respuesta no es visible para nadie que no me conozca ya, y el sistema oculta ese hecho mientras estoy conectado.

* La única circunstancia en la que creo que la censura generalizada es útil es cuando la sociedad ha olvidado sus daños. En ese caso, inevitablemente regresa, aunque solo sea para recordarnos una vez más sus efectos perjudiciales.

20 Me gusta

Muy interesante, gracias.

Incluso se podría argumentar fácilmente que hay otra capa, ¡motores de búsqueda como Google!

6 Me gusta

Lectura muy interesante. Sin embargo, me pregunto si realmente hay algún uso para las prohibiciones fantasma en Discourse.

Sí, existe un plugin de prohibición fantasma, pero apenas se usa. Tiene una (1) estrella en Github y las estadísticas que tenemos en Communiteq revelan que el número de foros de Discourse que lo usan activamente es inferior al 0,5%.

Entonces, ¿por qué la adopción de las prohibiciones fantasma en la plataforma Discourse es tan baja? No es porque las prohibiciones fantasma sean malas (que lo son), tiene otra razón. Desde un punto de vista técnico, las prohibiciones fantasma son muy fáciles de detectar en Discourse. Simplemente visita el foro sin iniciar sesión o usando otra cuenta y observa las diferencias. Y eso es posible porque Discourse no es una plataforma de redes sociales que utiliza un algoritmo que decide qué verás y en qué orden se presenta. En Discourse, el contenido que se te muestra no depende de lo que hayas hecho / visto / leído o escrito antes. Y si no hay un algoritmo, no hay lugar para minimizar cierto contenido. Solo existe la opción de ocultarlo por completo en lugar de mostrarlo.

Tampoco apoyo todas las formas de moderación transparente, porque la moderación transparente aún puede ser subjetiva.

Además de mi trabajo en el ecosistema de Discourse, también soy fundador de una empresa que combate la desinformación y el discurso de odio en línea. Durante las charlas, a menudo me preguntan por ejemplos de interferencia extranjera en los procesos democráticos de este país (los Países Bajos), donde las personas que hacen la pregunta siempre esperan que cuente alguna historia sobre trolls rusos. Pero, de hecho, los principales ejemplos de interferencia en los procesos democráticos por parte de actores extranjeros que hemos visto en este país son plataformas de redes sociales como Twitter o YouTube que prohíben o prohíben fantasma a políticos holandeses, sin ningún tipo de revisión por parte de un tribunal u otro organismo independiente.

Y eso es malo.

13 Me gusta

Hola Richard,

Gracias por tu opinión. No estoy completamente convencido de que el uso sea escaso en Discourse. No tenemos forma de verificar el código personalizado de las instalaciones, etc., sin antes crear y compartir herramientas para que los usuarios revisen el comportamiento de esos sistemas por sí mismos. Incluso si el uso fuera escaso, sigue siendo importante adoptar una postura pública porque el uso en otros lugares comenzó de forma escasa y ahora está muy extendido. No estoy de acuerdo con tu comentario aquí,

Entonces, ¿por qué la adopción de shadowbanning dentro de la plataforma Discourse es tan baja? No es porque los shadowbans sean malos (que lo son), tiene otra razón. Desde un punto de vista técnico, los shadowbans son muy fáciles de detectar en Discourse. Simplemente visita el foro sin iniciar sesión o usando una cuenta diferente y detecta las diferencias.

Si bien eso es técnicamente posible, la mayoría de los usuarios no pensarán en hacerlo. Después de todo, las eliminaciones de comentarios de Reddit funcionan de la misma manera, lo que puedes ver comentando en r/CantSayAnything. El 99% de los Redditors no tienen idea de que funciona así. Tuve una cuenta en Reddit durante siete años antes de descubrir su uso generalizado de la moderación oculta. También había visitado como lector durante probablemente tres años antes de eso. E incluso ahora que Reveddit existe desde hace cuatro años, estimaría que menos del 1% de los Redditors entienden cómo funcionan las eliminaciones de comentarios. Finalmente, incluso después de crear Reveddit, no fue hasta cuatro años después, este verano, que realmente entendí que existían herramientas de moderación oculta y que se usaban ampliamente en todas las plataformas principales.

Estoy de acuerdo con tu punto en que la manipulación de los feeds algorítmicos es más difícil de detectar. Y como dices, el contenido no filtrado algorítmicamente es revisable. Sin embargo, las secciones de comentarios ordenadas por fecha siempre encajan en esta categoría, y creo que todos los principales sitios de redes sociales las tienen. Por lo tanto, son revisables, siempre que alguien cree herramientas para hacerlo, porque de nuevo, los usuarios no piensan en comprobarlo por sí mismos. Incluso si compruebas el estado de un comentario una vez, es posible que un moderador elimine silenciosamente tu comentario una hora después, ¡invalidando así tu comprobación! Es por eso que creé Reveddit Real-Time1, una extensión que consulta el sistema para detectar eliminaciones ocultas y te notifica cuando eso sucede.

Se deberían crear herramientas como esta para todas las plataformas hasta que haya suficiente confianza entre los usuarios y los sitios de redes sociales de que la moderación oculta ha quedado en el pasado. La moderación oculta está tan extendida que creo que todos deberían asumir que está siendo utilizada por cualquier sistema que utilicen para comunicarse, a menos que el sistema niegue expresamente la práctica. E incluso en ese caso, debes prestar atención a su redacción, como la elección de Twitter de usar públicamente la palabra “rank”1 en lugar de descriptores internos como “de-amplify”1. YouTube, por otro lado, reconoce más abiertamente que “reducirá”1 el contenido.

la moderación transparente aún puede ser subjetiva.

¿Puedes ampliar esto?

Además de mi trabajo en el ecosistema de Discourse, también soy fundador de una empresa que combate la desinformación y el discurso de odio en línea.

Interesante, ¿puedes decir cuál? ¿Y las charlas que mencionas están disponibles en línea? Estoy de acuerdo en que las prohibiciones de YouTube también son preocupantes. Sospecho que su foso, como el de otros, se construyó utilizando herramientas de moderación oculta que “reducen” o “eliminan de forma oculta”. Por lo tanto, deberíamos centrarnos primero en eso.

Creo que la verdadera censura de nuestra era es la moderación oculta. La moderación transparente puede ser censura si no es “neutral en cuanto al punto de vista”, pero a menudo es similar a la edición. Un argumento final contra la censura real proviene de Bob Corn-Revere, un destacado abogado de la Primera Enmienda: “el censor nunca tiene la razón moral”1.

3 Me gusta

Estoy de acuerdo en que la moderación debe ser transparente, pero puedo ver cómo la prohibición en la sombra sería tentadora para lidiar con trolls que no desaparecen. ¿Existen algunas formas alternativas de lidiar con alguien que sigue creando nuevas cuentas después de haber sido prohibido por el personal de un sitio?

8 Me gusta

Como uno de los fundadores del segundo proveedor de alojamiento gestionado de Discourse más grande, tengo esa forma, al menos con respecto a las instancias que alojamos, por lo que me encuentro en la afortunada posición de poder realizar algunos cálculos estadísticamente significativos aquí. Y si hubiera una funcionalidad generalizada de shadowban que, de alguna manera mágica, estuviera completamente separada de “nuestras” instancias, ni siquiera habría oído hablar de ella en los últimos 9 años. Eso es, bueno, muy poco probable.

Tu publicación parece desdibujar la distinción entre shadowbanning (donde se suprimen todas las publicaciones de ciertos usuarios) y la moderación fantasma (concerniente a publicaciones individuales), pero creo que esa distinción es importante.

Aparte de las diferencias técnicas donde el shadowbanning es mucho más fácil de detectar (si puedes encontrar una sola publicación de cierto usuario, no está shadowbanned), el shadowbanning es mucho más malvado, ya que la libertad de expresión de alguien se está restringiendo en función de las cosas que ha dicho antes, mientras que la moderación fantasma suprime su discurso actual.

Creo que el problema principal con la moderación fantasma es que es subjetiva, no que sea silenciosa. Cuando se notifica a las personas sobre la eliminación de contenido, esto también puede generar comportamientos no deseados (por ejemplo, volver a publicar o trolear). Un ejemplo es lo que sucedió en LinkedIn durante el Covid-19. La mayoría de las veces notifican sobre la eliminación de contenido, por lo que la gente comenzó a tomar fotos de sus publicaciones eliminadas y a volver a publicarlas. Esto no solo atrajo más atención a sus publicaciones (que pasaron desapercibidas porque LinkedIn aparentemente no puede hacer reconocimiento de imágenes en esas fotos), sino que también alimentó las teorías de conspiración del “gran reinicio” de que había un poder mayor que estaba restringiendo su libertad de expresión.

Bueno, esto:

5 Me gusta

Hola Simon, el contexto es muy importante. ¿Tienes algún ejemplo específico? En general, sugeriría imaginar que esta carga no tiene por qué recaer enteramente sobre los hombros de los gestores de contenido. Involucra a tu comunidad y explica el dilema. Quizás se pueda resolver sin una prohibición. Si crees que eso es ingenuo, entonces se necesita más contexto para discutir.

2 Me gusta

Richard, gracias por estas aclaraciones. El dato que proporcionas es bueno saberlo. Creo que podemos estar de acuerdo en que la moderación oculta no parece ser un gran problema en Discourse hoy en día.

Personalmente, todavía no declararé ninguna “luz verde” aquí, por las razones ya expuestas y porque incluso el uso de un solo foro puede tener un gran impacto. Por ejemplo, ciertos grupos en Reddit hacen un uso más intensivo de la moderación oculta que otros. Los usuarios pueden ser inducidos a confiar en el sistema en su conjunto basándose en que ciertos grupos les notifican las eliminaciones. Así que piensan que sucede todo el tiempo. Y lo que a menudo sucede a continuación es que los grupos más manipuladores son confiados más simplemente porque no les dicen a los usuarios cuándo eliminan contenido. Con el tiempo, esto ha llevado a que más grupos recurran a la eliminación sin notificación. Reveddit ayuda a contrarrestar esto un poco, pero sigue siendo solo un parche sin una conciencia más amplia.

No me cuesta imaginar una instalación de Discourse que no ejerza una moderación transparente y, por lo tanto, se aproveche de los usuarios de la misma manera. Estoy de acuerdo en que el uso generalizado de la moderación oculta en otros lugares no significa que su uso esté generalizado en Discourse. Considero que el plugin publicado y las solicitudes de corrección de errores son evidencia de que la moderación oculta al menos está llamando a la puerta de Discourse.

Aparte de las diferencias técnicas donde el shadowbanning es mucho más fácil de detectar (si puedes encontrar una sola publicación de un usuario determinado, no está shadowbanned),

Desde la perspectiva del usuario, esta prueba no funciona. Los sistemas que moderan selectivamente el contenido oculto no anuncian que lo hacen. Además, “más fácil” no significa “fácil”. Este usuario1 fue shadowbanned en todo el sitio de Reddit durante tres años antes de descubrirlo, y muchos otros usuarios son regularmente shadowbanned de subreddits, como se documenta, por ejemplo, en r/LibertarianUncensored1.

Reddit ahora también tiene algo llamado Crowd Control que permite a los moderadores de subreddits activar un interruptor para eliminar automáticamente todos los comentarios de suscriptores no habituales sin notificación. En un solo hilo de r/conservative1, 4.000 comentarios, más del 50%, fueron eliminados automáticamente en oculto. Ninguno de estos usuarios tiene idea de que su participación en ese grupo a menudo se silencia.

el shadowbanning es mucho más malvado, ya que la libertad de expresión de alguien se restringe en función de las cosas que ha dicho antes, mientras que la moderación oculta suprime su discurso actual.

El shadowbanning [del contenido de toda una cuenta] es una forma de moderación oculta. El término “invisibilidad selectiva”1 puede describir mejor lo que quiso decir con “moderación oculta”. Ambos, en mi opinión, pueden ser igualmente dañinos debido al efecto adormecedor descrito anteriormente, y porque la invisibilidad selectiva aún se puede aplicar sin revisión humana del contenido moderado. En Reddit, eso constituye la mayoría de las eliminaciones de comentarios; los moderadores no las revisan y las aprueban, e imagino que lo mismo ocurre en otras plataformas.

Finalmente, estoy de acuerdo en que la gente puede debatir qué constituye censura, e incluso qué significa ser completamente transparente sobre la moderación. Creo que el punto más relevante aquí es que estamos muy lejos de una moderación transparente en las redes sociales, y muy lejos de la conciencia pública sobre la omnipresencia de la moderación oculta, que cualquier paso en esa dirección es significativo. En otras palabras, no dejes que la perfección se interponga en el camino de lo bueno.

5 Me gusta

Hola Rob, estoy de acuerdo con @simon en que hay ciertas instancias en las que el shadowbanning podría ser útil desde una perspectiva puramente funcional. Personalmente, no quiero entrar en las cuestiones morales y filosóficas más profundas de este tema, pero he visto múltiples casos que son bastante claros. Por lo general, involucran a una persona específica que todo el foro conoce como un troll descarado, y la persona ha sido baneada en múltiples ocasiones y sigue regresando con diferentes nombres de usuario, y ese tipo de alborotador invariablemente usa la red TOR. Lo mismo ocurre con los usuarios descontentos que publican furiosas diatribas profanas e insultos horribles e incluso imágenes obscenas perturbadoras, o incluso amenazas físicas específicas y dirigidas. Por lo tanto, los casos a los que me refiero son ejemplos claros e inequívocos de usuarios que absolutamente no deberían estar en un foro (o incluso libres en las calles en algunos casos), y su comportamiento en línea viola las normas de prácticamente todas las personas decentes del mundo. Los shadowbans al menos pueden ganar algo de tiempo antes de que ese tipo de usuario se dé cuenta y cree otra cuenta.

6 Me gusta

Esa es difícil. No estoy en posición de dar ejemplos, pero el subtítulo del tema de Discourse Shadowban lo resume bastante bien: “El último recurso para lidiar con trolls que simplemente no se van”. También esto:

Mi enfoque ante la situación sería añadir una nota a la cuenta del usuario con Discourse User Notes para advertir a otros moderadores del sitio sobre el usuario y asegurarme de que sean rápidamente baneados por cualquier nueva infracción. Nunca me he encontrado con una situación en la que el usuario no acabara desapareciendo.

Creo que deberíamos hacer nuestra parte para intentar hacer del mundo un lugar mejor. El tipo de problema que describo aquí es lidiar con usuarios que parecen (desde mi punto de vista) tener problemas de salud mental. Me gustaría saber cómo ayudarles a ser mejores ciudadanos tanto en internet como en el mundo real.

6 Me gusta

Fácilmente se podría argumentar que hay otra capa, ¡motores de búsqueda como Google!

Correcto. Me preocupan más las eliminaciones ocultas en las secciones de comentarios ordenadas por fecha. Allí, el daño es claro y es relativamente fácil crear herramientas que muestren dónde está ocurriendo. El truco, creo, es conseguir apoyo para ese movimiento. Aún no existe. La gente ni siquiera sabe que está sucediendo. Y, en la medida en que la gente todavía dice “necesitamos tales herramientas para este peor escenario”, creo que eso es reduccionista porque los daños de esta nueva forma de censura oculta se dejan de lado o nunca se consideran. Aun así, puede ser una conversación que deba ocurrir si queremos generar apoyo para tener conversaciones moderadas de manera transparente.

Tienes toda la razón al decir que los algoritmos opacos también pueden moderar de forma oculta. He oído rumores de investigaciones que argumentan que Google manipula lo que aparece en sus sugerencias de búsqueda mientras escribes, sin embargo, no tengo una fuente para eso, así que sigue siendo un rumor para mí. También se podrían sesgar intencionalmente los datos de entrenamiento, o no notar el sesgo existente en los datos. O, se podría argumentar que lo que constituye un sesgo es subjetivo ya que el mundo digital nunca reflejará con precisión el mundo real.

Todas esas son discusiones más complejas, muchas de las cuales solo ocurrirán a puerta cerrada. Creo que sería más probable que ocurrieran si hubiera una mayor conciencia de la prevalencia de la moderación oculta en las secciones de comentarios, y por lo tanto un mayor apoyo para no hacer eso; es decir, apoyo a la moderación transparente. No estoy casado con estos términos, por cierto, así que si tienes mejores ideas, por favor, házmelo saber.

1 me gusta

Hola Rahim,

Me alegra que te unas a la discusión.

Personalmente, no quiero entrar en los problemas morales y filosóficos más profundos de este tema, pero he visto múltiples casos que son bastante claros.

¿Puedes citar algunos de estos ejemplos? Sin ellos, esta es, de hecho, más una discusión teórica que empírica. Ten en cuenta que cierto contenido es ilegal1. Dicho contenido debe ser denunciado a las autoridades. Supongo que estás hablando de discursos protegidos constitucionalmente que de otra manera causan daño a los usuarios.

He enlazado varios casos que demuestran cómo el uso continuo de la moderación oculta es perjudicial y aún no he visto un ejemplo de un troll que (a) publique constantemente discursos que bordean la protección constitucional y (b) no se vaya después de que se le diga. Quizás sea porque es raro.

El escenario hipotético del peor de los casos se utiliza siempre para justificar la consolidación del poder. En Reddit, algunos grupos como r/news tienen un moderador por cada un millón de suscriptores que tienen cuentas. El número de lectores probablemente amplía esa proporción al menos diez veces. Eso es notable si se considera que los moderadores allí son voluntarios anónimos y no capacitados. Deciden lo que cientos de millones de personas verán en las secciones de comentarios sin la supervisión ni siquiera de los autores de esos comentarios.

Por lo general, implica a una persona específica que todo el foro conoce como un troll descarado, y la persona ha sido prohibida en múltiples ocasiones y sigue regresando bajo diferentes nombres de usuario, y ese tipo de alborotador invariablemente usa la red TOR. Lo mismo ocurre con los usuarios descontentos que publican diatribas profanas furiosas e insultos horribles e incluso imágenes obscenas perturbadoras, o incluso amenazas físicas específicas.

¿Esto justifica la implementación de una forma de censura que no se confía a la base de usuarios que la conozca?

Aquí hay un caso en el que interactué con alguien que buscaba pelea. Puedes ver en el historial de comentarios de BillHicksScream1 que dicen cosas provocativas todo el tiempo. Y sin embargo, no tuvieron nada que decir en respuesta a mi último comentario.

En otros casos, dar la última palabra a los usuarios rebeldes puede ser el mejor curso. Solo necesitas parecer razonable frente al dogma, como dice Jonathan Rauch1. No es necesario convencer a los trolls/extremistas de que están equivocados. Se cansarán solos.

Las prohibiciones ocultas al menos pueden ganar algo de tiempo antes de que ese tipo de usuario se dé cuenta y cree otra cuenta.

¿Y luego qué? ¿Qué sucede cuando los usuarios inevitablemente juntan dos y dos y se dan cuenta de que sus discusiones están siendo manipuladas porque el acaparamiento de poder fue demasiado grande y tentador para que cualquier individuo se resistiera? Los que se resisten y no han incorporado la moderación oculta en el software, como el fundador de Discourse, Jeff Atwood, son la excepción, no la regla.

Está ocurriendo un cambio cultural1 en la tecnología en este momento. Se están despidiendo equipos enteros y los usuarios están descubriendo la moderación oculta. La tecnología honesta es el camino a seguir. Mira cómo reacciona la gente cuando descubre lo que está pasando1,

…¿cuál es la supuesta razón para hacerte pensar que una publicación eliminada todavía está activa y visible?

…Así que los moderadores eliminan comentarios, pero los mantienen visibles para el escritor. Qué siniestro.

…lo impactante es que no recibes ninguna notificación y para ti el comentario todavía parece visible. Lo que significa que los moderadores pueden establecer la narrativa que quieran sin rendir cuentas a nadie.

…Vaya. ¿Pueden eliminar tu comentario y todavía aparece en tu lado como si no hubiera sido eliminado?

…Vaya. Llevo 12 años aquí y siempre pensé que era un lugar genial donde la gente podía compartir ideas abiertamente. Resulta que está más censurado que China. Siendo eliminado en 3, 2, 1…

Entonces, sale el tiro por la culata. En la mente de los usuarios, ahora eres el censor que dice: “los usuarios no deberían ver esto, solo yo [el moderador] tengo la constitución para soportarlo”.

Los censores, por cierto, nunca se refieren a sí mismos como censores, como señalé aquí1. Eso es porque la palabra “censor” ha sido considerada algo malo desde los días de Anthony Comstock. Por lo tanto, a menudo se reformula con términos como invisibilidad selectiva1, filtrado de visibilidad1, clasificación1, visible para uno mismo1, reducción1, de-potenciación1, o disfrazar una mordaza1. Todas esas son frases que las plataformas y los defensores de la moderación oculta utilizan para evitar decir la palabra fea, “censura”. La lista es interminable porque el punto es enmascarar, no revelar, lo que están haciendo.

Dices que no quieres una discusión filosófica, pero cuando tratas con alguien con quien no estás de acuerdo y respetas las libertades individuales, puede ser útil pensar como un científico en lugar de como un abogado o un soldado y tener curiosidad por saber de dónde viene esa persona. Greg Lukianoff llama a esto “El proyecto del conocimiento humano” [clip de video] [artículo].

En resumen, se deben tener en cuenta los daños causados por la censura. Una visión miope de los daños causados por los trolls sin ninguna consideración por los daños de la verdadera censura de hoy no hace avanzar las conversaciones sobre la moderación de contenido porque solo estás mirando una parte del panorama. La moderación oculta permanece oculta para prácticamente el 100% del público.

Dado que se impide que tantos usuarios ayuden a mediar las discusiones cuando ocurre la moderación oculta, es razonable involucrarlos en la asistencia. En la medida en que no se haga ningún intento de involucrar a la comunidad a través de la moderación transparente y la contra-discusión, lo llamaría autoritarismo en línea: una mentalidad divina donde los moderadores pretenden saber más que todos los demás. Y, en última instancia, esto causará más problemas a los administradores de los que vale la pena, como creo que se puede ver en la agitación periódica que enfrentan Twitter, Facebook y Reddit. Los usuarios de esos espacios han estado allí el tiempo suficiente para comenzar a descubrir la manipulación, y quieren algo mejor.

2 Me gusta

Mi enfoque ante la situación sería añadir una nota a la cuenta del usuario con Notas de Usuario de Discourse para advertir a otros moderadores del sitio sobre el usuario y asegurarme de que sean rápidamente baneados por cualquier nueva infracción. Nunca me he encontrado con una situación en la que el usuario no acabara desapareciendo.

Esa también ha sido mi experiencia, que la moderación transparente ayuda a las personas a comprender las reglas y a decidir si quieren seguirlas o conversar en otro lugar. El estudio que cito sobre la carga de trabajo de los moderadores también lo confirma.

Creo que deberíamos hacer nuestra parte para intentar hacer del mundo un lugar mejor. El tipo de problema que describo aquí es tratar con usuarios que parecen (desde mi punto de vista) tener problemas de salud mental. Me gustaría saber cómo ayudarles a ser mejores ciudadanos tanto en Internet como en el mundo real.

¡Parece que vienes de un buen lugar, Simon! Creo que el individuo que “simplemente no desaparece” después de que se le pide que se vaya es muy raro, pero si llega a ocurrir, diría que merece el mismo respeto que damos a todos los demás en cuanto a un “derecho a un juicio” de algún tipo. Un juicio completo no va a ocurrir por cada infracción en línea, así que el compromiso que propongo es que todos los usuarios merecen saber cuándo han sido moderados. Quitar eso es como quitar el poder judicial. En cuanto a la salud mental, ni siquiera los psiquiatras hacen tales evaluaciones sin examinar personalmente al individuo, así que no creo que debamos hacerlo nosotros tampoco. “Están locos” se convertirá inevitablemente en la excusa para quitar el derecho a un juicio utilizando la moderación oculta.

Si el contenido es ilegal, algo que “en contexto, causa directamente un daño grave inminente específico”\u003csup\u003e1\u003c/sup\u003e (una definición de Nadine Strossen), entonces debe ser denunciado a las autoridades.

Finalmente, si crees que la autolesión es un factor, podrías recomendar una línea de ayuda en crisis. Teóricamente hablando, es posible que la eliminación oculta de comentarios de usuarios que abogan por la violencia hacia sí mismos o hacia otros los haga más propensos a actuar según sus creencias erróneas.

Considera un grupo que consideras odioso. Aún así podrían eliminar los llamados a la violencia real. Pero si los moderadores lo hacen en secreto, el individuo violento no recibe ninguna señal de que sus puntos de vista no estaban de acuerdo con la comunidad. ¿Quién puede decir si eso los hace más o menos propensos a actuar? Pueden percibir la falta de una respuesta contraria como una aprobación tácita.

Mi argumento es el mismo que el del juez Brandeis, que la luz del sol es el mejor desinfectante\u003csup\u003e1\u003c/sup\u003e y que una solución requiere la participación de la comunidad. En lugar de eliminar comentarios en secreto, incluso los odiosos, puedes darles una señal sobre las eliminaciones. Esa señal se convierte en una oportunidad para que se beneficien de alguna otra interacción, ya sea de tu comunidad, de otra comunidad o de las fuerzas del orden. Al hacerlo, puedes dar a los márgenes de la sociedad una oportunidad de sentirse menos aislados, haciendo así que tú y el mundo sean un lugar más seguro.

En general, intento seguir el consejo de Jonathan Rauch. Él dice,

“La persona con la que estás hablando no es la persona con la que estás hablando directamente…”

Básicamente, no necesitas convencer a todos de que tienes razón. Es suficiente sonar razonable frente a alguien que es dogmático o incluso censor. Si bien es cierto que alguien puede comportarse legalmente de manera censora en una conversación al intentar silenciarte con palabras odiosas, también parecen idiotas siempre que les des la latitud adecuada. Cualquier percepción de que esto no funciona en línea puede deberse al uso generalizado de eliminaciones ocultas. Cuando intentas interactuar con un grupo “odioso” en su propio espacio, ¡ puedes ser moderado en secreto sin tu conocimiento!

En la misma charla, Rauch dice, “Los que odian, al final, se entierran a sí mismos si les dejas hablar.” Y él sabría qué funciona. Como hombre gay que creció en los años 60, descrito aquí\u003csup\u003e1\u003c/sup\u003e, Rauch aparentemente ha estado activo en el movimiento por los derechos de los homosexuales durante décadas con un éxito considerable. Así que vale la pena escucharlo sobre el tema de la libertad de expresión, sin importar tus sentimientos sobre la homosexualidad o el matrimonio gay. Desde la Inquisición española, pasando por Anthony Comstock, el comunismo y el macartismo, hasta el PMRC de Tipper Gore, la era actual de las redes sociales no es la primera vez que se desafía la libertad de expresión, y no será la última.

He encontrado que la mentalidad de Rauch es extremadamente efectiva para moderar mi propia participación y permitir que otros expresen sus opiniones mientras sigo transmitiendo mi punto de vista. Descubro continuamente nuevas formas de aceptar que (a) solo puedo cambiarme a mí mismo y (b) que esto es suficiente para tener un impacto positivo en el mundo.

4 Me gusta

Posiblemente haya dos problemas separados aquí. El primer problema son los moderadores que hacen todo lo posible para lidiar con el comportamiento problemático. Se sugirió la prohibición fantasma de usuarios odiosos como un enfoque para eso aquí: Discourse Shadowban. Puedo entender la motivación, pero no creo que gane mucha tracción como técnica de moderación; si un usuario es tan persistente, solo está retrasando un conflicto inevitable.

El segundo problema es lo que está sucediendo en otras plataformas donde el alcance de las publicaciones de algunos usuarios es limitado, sin darles ninguna indicación sobre lo que está sucediendo. Lo notable es que estos usuarios no han violado los Términos de servicio de la plataforma. Sería técnicamente posible crear un plugin de Discourse que implementara algo como esto, pero a menos que el sitio estuviera extremadamente activo, creo que se descubriría rápidamente. De hecho, creo que Discourse y otras plataformas comunitarias descentralizadas son el antídoto para este problema. Como ejemplo extremo, si alguien quiere crear una comunidad donde decir “la Tierra gira alrededor del Sol” se considera desinformación peligrosa, es libre de hacerlo. Las personas con una visión del mundo heliocéntrica simplemente pueden encontrar una comunidad diferente a la que unirse.

Un problema adicional sería si fuera imposible encontrar alojamiento o un procesador de pagos para una comunidad que estuviera en contra de la narrativa dominante sobre un tema en particular. Aparte de intentar promover los valores de la curiosidad intelectual y la diversidad, no tengo ninguna gran sugerencia sobre cómo lidiar con esto.

Quizás, pero también, idear soluciones para problemas reales es una buena estrategia comercial. Cómo ayudar a las personas con su comportamiento de troll, en lugar de simplemente prohibirlos, parece un problema sin resolver. Puedo imaginar que Discourse proporcione algunas herramientas para ayudar a las comunidades con esto. También podría externalizarse a un servicio externo que contara con terapeutas capacitados.

5 Me gusta

Simon, te agradezco que te tomes el tiempo de responder. Veo que no te ha convencido mi argumento de que a veces se puede dejar a los trolls solos (es decir, a través de la moderación transparente en lugar de la moderación oculta), ni tampoco te ha convencido de que la moderación oculta pueda tentar a Discourse con un mayor uso. Quizás sea cierto, quizás no. Creo que el tiempo lo dirá, pero no necesariamente pronto. Discrepo firmemente en que la moderación oculta sea “descubierta rápidamente”. Estoy de acuerdo en que no se debe subestimar la promoción de la curiosidad intelectual y la diversidad, y que una buena estrategia empresarial juega un papel fundamental.

2 Me gusta

Vinculación cruzada de la posición oficial de Discourse aquí

12 Me gusta

Quizás he sido demasiado cauto al expresar mis ideas aquí:

Creo que la prohibición oculta es una idea terrible. Dicho esto, tengo muchas preocupaciones sobre el futuro de Internet, pero en lo que respecta a Discourse, no me preocupa que la prohibición oculta o la manipulación subrepticia del contenido de un sitio sea algo que tenga éxito. En primer lugar, como se señaló anteriormente, la funcionalidad no existe en el código central de Discourse y el equipo no tiene planes de desarrollar complementos para ello. En segundo lugar, no veo un caso de uso válido para agregar este tipo de funcionalidad a un sitio de Discourse; no puedo imaginar un caso en el que implementarlo beneficie a los propietarios de un sitio.

Si hay algo más que pudiera promover, sería el valor del desacuerdo. Promover el desacuerdo, en lugar del acuerdo, es la forma más rápida de reunir todos los puntos de vista disponibles de un grupo de personas.

5 Me gusta

Sé que hay situaciones en las que se necesita un plugin/función de shadowban.

Tenemos un programa de pago y al 99% de nuestros estudiantes les encanta. Luego tenemos algunas manzanas podridas que entran en los foros y “envenenan” a los demás con negatividad. Ahora estas personas han pagado por algo, así que la manzana podrida está difundiendo FUD (miedo, incertidumbre y duda) y la gente nueva entra y ve el FUD, así que piden un reembolso.

La manzana podrida también pagó, así que tampoco queremos que reembolse porque suelen ser este tipo de personas las que nos quitan la mayor parte de nuestro tiempo.

Mi personal dedica horas y horas a lidiar con las manzanas podridas y a evitar que envenenen a las manzanas buenas.

Así que sí… solo queremos hacer shadowban a las manzanas podridas para que el equipo de soporte pueda responder a sus publicaciones y respuestas, y ellos piensen que están “dentro” y la vida sea alegre y feliz para nuestro equipo de soporte y nuestros increíbles usuarios no se envenenen.

Antes de que digas “Simplemente reembolsa a las manzanas podridas”… no, esa no es la respuesta.

Necesitamos una función de shadowban para Temas y respuestas y por usuario si los hacemos shadowban permanentemente.

Hay un caso de uso legítimo para esta función.

2 Me gusta

Por curiosidad, ¿por qué no sería la respuesta en esta situación eliminar a los miembros indeseables de tu comunidad?

¿No sería también un problema mayor si/cuando descubrieran que estaban pagando por algo que no estaban recibiendo completamente? (es decir, participación en tu comunidad)

5 Me gusta

Reembolsarían. Sin embargo, obtienen mucho más que solo la comunidad. Los foros son solo una pequeña parte. Software, herramientas, educación. Lo que no pueden hacer es infundir miedo (FUD) en otros de la comunidad y hacer que otros duden o quieran un reembolso. Después de hacer esto durante 20 años, sabemos que hay un cierto porcentaje de personas que serán negativas sobre todo en la vida, por lo que debemos proteger a nuestros clientes de pago que están tomando medidas.

Si solo estuvieran pagando por un foro, sería diferente… pero este es un producto de 2K, por lo que tenemos que proteger a nuestros miembros de pago de los aguafiestas negativos.

2 Me gusta