He leído algunas publicaciones alentadoras aquí sobre el tema de la moderación, como la de @codinghorror aquí1, y quería aportar mi granito de arena.
Las recientes revelaciones de Twitter1 han reavivado el debate sobre el uso de herramientas de moderación similares a los shadowbans. ¿Son buenas o malas para el discurso? Con esta publicación, espero generar un debate entre moderadores y usuarios sobre el uso de los shadowbans.
Mi hipótesis es que la moderación transparente fomenta una base de usuarios preparada donde moderadores y usuarios confían mutuamente, y la moderación oculta crea más problemas de los que resuelve. Por lo tanto, sostengo que cosas como el shadowban nunca debieran usarse, ni siquiera para foros “pequeños” como las instalaciones de Discourse.
Sobre mí
Soy el autor de Reveddit, un sitio que muestra a los Redditors su contenido eliminado en secreto. Reveddit se lanzó en 2018 y desde entonces he sido muy vocal en Reddit1, Hacker News1 y más recientemente en Twitter1 sobre mi oposición al uso generalizado de herramientas similares a los shadowbans, que llamo Moderación Oculta. En caso de que haya alguna duda de que alguna forma de moderación oculta está ocurriendo en todas las plataformas más populares, por favor, vea también mi charla para Truth and Trust Online 20221, diapositivas 8-9 a las 5:50, o mi aparición en Using the Whole Whale1. Si hay alguna duda de que la práctica es impopular entre los usuarios de todos los ámbitos, por favor, vea las reacciones de miles de usuarios en las FAQ de Reveddit1.
Prefacio
A modo de referencia, aquí hay algunas definiciones existentes de comportamiento similar a shadowban:
- “hacer que el contenido de alguien sea deliberadamente indetectable para todos excepto para la persona que lo publicó, sin que el autor original lo sepa”. - Blog de Twitter1
- “Un usuario hellbanned es invisible para todos los demás usuarios, pero crucialmente, no para él mismo. Desde su perspectiva, está participando normalmente en la comunidad, pero nadie le responde. Ya no puede perturbar la comunidad porque es efectivamente un fantasma”. - Coding Horror1
Y aquí hay dos definiciones mías:
-
Moderación Transparente: Cuando se notifica a los usuarios de las acciones tomadas contra su contenido.
-
Moderación Oculta: Cualquier cosa que oculte las acciones del moderador al autor del contenido afectado.
Tenga en cuenta que cuando las plataformas hablan de transparencia, simplemente quieren decir que delinean claramente sus políticas. Esto no es lo mismo que la moderación transparente.
Y para que quede claro, sí apoyo el uso de la moderación que sea transparente. No apoyo la intervención gubernamental en las redes sociales para imponer la transparencia a las plataformas, como lo intentan PATA1 en EE. UU. o la DSA1 en Europa (Ley de Responsabilidad y Transparencia de Plataformas y Ley de Servicios Digitales, respectivamente). Por lo tanto, también acepto el derecho legal de las plataformas a participar en la moderación oculta.
El argumento a favor de la moderación transparente
El argumento a favor de la moderación transparente se define mejor como un argumento en contra de la moderación oculta.
La moderación oculta va en contra del hábeas corpus, un concepto milenario de que el acusado tiene derecho a enfrentarse a su acusador. Los valores del hábeas corpus están consagrados en la Constitución de los EE. UU. como una enmienda (la 6ª), pero también es una dignidad básica que esperamos para nosotros y, por lo tanto, debemos dar a los demás. En pocas palabras, los castigos secretos son injustos.
Ahora podrías decir: “¡pero estas son plataformas privadas!”. De hecho lo son. Sin embargo, en privado todavía nos esforzamos por defender ciertos ideales, como explica Greg Lukianoff de FIRE aquí.
John Stuart Mill hizo el mismo argumento en Sobre la libertad, donde escribió: “La protección, por lo tanto, contra la tiranía del magistrado no es suficiente: se necesita protección también contra la tiranía de la opinión y el sentimiento predominantes.” 1
Ahora podrías decir: “¡Lo necesitamos para lidiar con el spam de bots!”. Esto solo funcionará por un corto tiempo. A largo plazo, los bots descubrirán cómo verificar la visibilidad de su contenido, mientras que los usuarios en su mayoría no lo harán. Por lo tanto, la moderación transparente funcionará igual de bien para los bots, y la moderación oculta solo perjudica a los individuos genuinos.
Quizás dirás: “Solo lo estoy usando en un foro pequeño”. Y ahí preguntaría, ¿es realmente necesario recurrir al engaño? Sentirse cómodo con la moderación oculta en una instalación pequeña de Discourse puede ser un trampolín para apoyar su uso en plataformas más grandes, y el daño allí es claro para mí. Todos los lados de cada tema en cada geografía en cada plataforma se ven afectados. Más del 50% de los Redditors tienen algún comentario eliminado en el último mes de uso. Interrumpe innumerables conversaciones, quizás por miedo a lo que sucederá si el odio se “desata”. Pero Reveddit existe desde hace cuatro años, y eso no ha sucedido. En cambio, lo que he observado son comunidades más saludables, y he enlazado muchos ejemplos de ello en mi charla.
La moderación oculta a escala también empodera a tu oponente ideológico. Los grupos que consideras incivilizados son más propensos a hacer un uso incivil de la moderación oculta. Cualquier beneficio que tengas mientras estás en la posición de poder para implementar tales herramientas se erosionará con el tiempo. Y mientras utilices la moderación oculta, no ganarás argumentos sobre su uso en otros lugares.
Hasta donde sé, se ha investigado poco para estudiar los efectos de la moderación oculta. Conozco un estudio que indica que la carga de trabajo del moderador disminuye a medida que aumenta la transparencia1. Sin embargo, sabemos que las sociedades abiertas prosperan en comparación con las que están cerradas.
Sin control, la moderación oculta fomenta grupos tribales aislados que no están preparados para conversaciones del mundo real donde tales protecciones no están disponibles. Eso puede llevar a actos de violencia o autolesiones porque el daño infligido por las palabras es real cuando no logramos aceptar los límites de lo que podemos controlar. En cambio, podemos optar por responder al odio con contra-discurso y animar a las bases de usuarios a hacer lo mismo.
Finalmente, la nueva legislación no puede resolver esto por nosotros. Cualquier ley de este tipo infringiría nuestras libertades individuales y tendría la consecuencia no deseada de (a) empoderar a la misma entidad contra la que se diseñó la declaración de derechos, o (b) no funcionar, ya que no hay forma de hacer cumplir la transparencia sin dar al gobierno acceso a todo el código. Así que vuelves al punto de partida o estás peor que cuando empezaste. El apoyo al hábeas corpus y, por lo tanto, al discurso civil, se logra mejor a través del apoyo cultural a la moderación realmente transparente. Cualquier cosa menos que esto sería una tirita que cubre una herida supurante.
Conclusión
En conclusión, uno no debe adoptar la postura de “él lo está haciendo, así que tengo que hacerlo para competir en igualdad de condiciones”. Considere en cambio que ambos pueden tener una base precaria. Las instalaciones de Discourse y otros foros que no utilizan la moderación oculta tienen una base más sólida. Sus bases de usuarios están preparadas, los moderadores y los usuarios confían mutuamente y, por lo tanto, ambos se sienten libres de hablar abierta y honestamente. Y, dado el uso generalizado de la moderación oculta, ahora es más importante que nunca apoyar vocalmente la moderación transparente.
Apéndice
Un uso de la moderación oculta en Twitter aún no reportado puede ser cuando los Tweets se ocultan automáticamente en función de las menciones de ciertos enlaces. Descubrí esto cuando compartí un enlace a mi nuevo blog para el cual había comprado un dominio barato de $2 al año con la TLD .win. Después de compartirlo a través de Twitter, noté que mis tweets aparecían para MÍ pero NO para otros. Por ejemplo, este tweet1 no muestra la respuesta mía, incluso cuando haces clic en el botón “Mostrar respuestas adicionales”. Para ver mi respuesta, tienes que acceder al enlace directamente1. Efectivamente, esa respuesta no es visible para nadie que no me conozca ya, y el sistema oculta ese hecho mientras estoy conectado.
* La única circunstancia en la que creo que la censura generalizada es útil es cuando la sociedad ha olvidado sus daños. En ese caso, inevitablemente regresa, aunque solo sea para recordarnos una vez más sus efectos perjudiciales.