En inglés, cualquiera puede censurar, ya sea de forma privada o pública. Incluso decimos que la gente puede “autocensurarse”.
Argumento aquí que la verdadera censura de la era digital es la moderación encubierta. Siéntete libre de comentar allí o aquí si estás de acuerdo o en desacuerdo.
Estas plataformas han estado bajo un intenso escrutinio por no enterrar ciertas publicaciones.
Por otro lado, personalmente no estoy muy contento con el hecho de que una empresa o persona extranjera pueda influir en nuestra democracia eliminando publicaciones según sus (propias) reglas.
Así que supongo que este sería un buen punto intermedio. Mejor que cualquiera de las opciones anteriores.
Creo que estamos de acuerdo. Apoyo el derecho de las plataformas a eliminar lo que quieran, incluso las publicaciones de usuarios que se quejan de contenido censurado. Sin embargo, deberían informar a los autores de las publicaciones eliminadas.
Sí, a nivel nacional, el riesgo compartido es obvio. Pero también es evidente a nivel local. Imagina que la asociación de propietarios de tu casa tiene un grupo de chat y escribes un comentario crítico sobre su liderazgo o sus cuotas. Si el líder de ese grupo puede eliminar tu comentario en secreto, puede lanzar una campaña en tu contra. Y sus críticas hacia ti parecerán preceder a tus críticas hacia ellos, haciéndote parecer el niño. ¿Tiene sentido?
El punto es que no quieres este tipo de moderación de contenido en ningún lugar, ni en grupos comunitarios, ni en grupos escolares, y especialmente no en plataformas globales. Sin embargo, esa es nuestra realidad actual. Y a pesar de las preocupaciones generalizadas sobre las redes sociales, aún no he convencido a ninguna organización establecida de derechos civiles o de libertad de expresión para que hable públicamente en contra del uso de la moderación en la sombra.
Esto es demasiado simplista, pero me imagino dos grupos, tecnólogos y expertos en libertad de expresión, que cada uno posee una experiencia importante, pero cada uno carece de la experiencia del otro.
(1) Los tecnólogos creen erróneamente que la censura es la forma correcta de lidiar con los trolls.
(2) Los expertos en libertad de expresión creen erróneamente que las prohibiciones en la sombra son necesarias para lidiar con los bots.
De alguna manera, la brecha entre los dos debe cerrarse para que puedan beneficiarse de la experiencia mutua.
Pasaré porque entonces tendremos que empezar a trazar líneas si la desinformación y las fantasías de las fábricas de trolls deberían permitirse en nombre de la libertad de expresión. Y entonces nos desviaremos fuertemente del propósito de esta plataforma, también conocido como tema no relacionado.
No hay problema. “Fábricas de trolls” suena como un buen término para las plataformas de redes sociales que manipulan en secreto las conversaciones de otras personas.
Este es un escenario interesante el que describes aquí. Eso se está adentrando en la manipulación social engañosa, que puede crear todo tipo de problemas y malentendidos.
No me divierte. En parte porque nuestra frontera oriental estará cerrada en tres horas. Y una gran fábrica de trolls dijo en X que sucede porque la OTAN se ha apoderado de Finlandia y está planeando un ataque sigiloso. Pero bueno, eso no debería ser censurado en nombre de la libertad de expresión.
Fábrica de trolls es un término válido. ¿No lo sabías?
Pido disculpas por el chiste, pero no dije que nada debiera ser censurado. Dije que la censura secreta empodera a las granjas de trolls hasta el punto en que controlan las plataformas, que parece ser lo que usted está describiendo. Necesitamos transparencia para que todos estemos en la misma página.
Sí, se hacen posibles multitud de manipulaciones cuando se admite incluso el uso “excepcional” de las prohibiciones fantasma. Me he encontrado con innumerables personas inteligentes que piensan que el uso excepcional del secreto contra los aliados es aceptable. Para ser claros, este es el modo predominante de pensamiento en el mundo de la moderación de contenido dentro de las empresas de redes sociales, entre los académicos e incluso en algunas instituciones importantes que afirman apoyar la libertad de expresión.
Las personas también tienen derecho a la privacidad y a la libertad de expresión en muchos países.
Para los artículos académicos revisados por pares y las publicaciones impresas legítimas, estos deben ser revisados antes de ser publicados, esto no significa que las personas aún no tengan derecho a expresarse libremente.
Todo lo que digo es que hay personas que estudian la moderación de contenido, pero no estudian el impacto de la moderación oculta o no revelada. Esa es una gran brecha de investigación.
Tienes razón al señalar que las personas son libres de estudiar lo que deseen. En mi opinión, la falta de investigación sobre la moderación oculta es una omisión flagrante y una gran oportunidad para que cualquier investigador la aborde.
Claro que hay una oportunidad de investigación ahí, pero si los datos se ocultan a la vista del público, los estudios no serán precisos sin encuestas para que las personas informen sobre su experiencia con las prohibiciones fantasma, pero como usted ha mencionado, es posible que ni siquiera sepan que está sucediendo.
De todos modos, eso iría más allá de lo que es este sitio de soporte, a menos que se centre específicamente en la aplicación Discourse.
Al ser de código abierto para sitios independientes, no está en la misma categoría que otras aplicaciones de sistema cerrado.
No necesariamente. Un investigador podría crear herramientas para rastrear lo que se ha eliminado o alterado. Eso ya es posible en Reddit, como demuestro con el sitio web y la extensión de Reveddit. En términos generales, una extensión siempre debería poder rastrear secciones de comentarios visibles públicamente y ordenadas por fecha. Y, los foros públicos pueden ser donde ocurre la mayor parte de la manipulación oculta, ya que es el contenido más visible y, por lo tanto, el más compartido.
Además, también se podría publicar investigación sobre entrevistas con personas que piensan en la moderación oculta en varias plataformas. No es necesario saber qué se ha eliminado para publicar investigación. Simplemente saber cómo se hace es suficiente para aportar algo interesante.
Este es un foro de discusión general sobre moderación comunitaria. No creo que sea un tema aparte discutir la investigación sobre moderación de contenido.
No lo diría. Alguien que ejecuta código abierto puede agregar código adicional que usted no conoce. No hay garantía de que estén ejecutando el código base original. La mejor manera de administrar una comunidad confiable, en mi opinión, es declarar que no utiliza la moderación oculta y ser transparente sobre todas las acciones de moderación para los autores del contenido.
Si se puede probar que un individuo u organización específica está haciendo eso, puede enviarles un aviso legal de que si no se detienen, puede/interpondrá cargos contra ellos por acoso/interrupción o simplemente por usar servicios web sin permiso, las personas pueden ser procesadas por eso.
Eso solo funciona si tienes nombre, no si eres anónimo. El anonimato tiene su lugar para desafiar las políticas existentes, pero esperamos conocer los nombres de las personas que dirigen foros que consideramos confiables.
El nombre anterior de la cuenta seguía siendo anónimo; no era un nombre real. Además, no sabemos qué foro administra. Si alguien quiere declarar que no utiliza moderación encubierta, debería decirlo donde la gente conozca su identidad y afiliación.
Eso no significa que todos los usuarios deban ser identificados, solo que el nombre del administrador del foro debe ser conocido para que alguien pueda rendir cuentas de la alineación o desalineación del sitio con su comportamiento declarado. Por ejemplo, las cartas de “Sra. Silence Dogood” de Ben Franklin se publicaron anónimamente en un periódico dirigido por su hermano. Los Artículos de la Federación y las Cartas de Catón también se publicaron anónimamente, pero fueron distribuidos por periódicos de renombre conocido. Por lo tanto, aún se puede permitir el anonimato y las valiosas contribuciones al discurso siempre que alguien ponga su nombre detrás de la distribución.
A veces es mejor que las suspensiones y silencios no sean visibles para cuentas no administradoras. Sin embargo, cada propietario de comunidad debe decidir qué filosofía funciona mejor. Para la percepción pública.
Las suspensiones no anonimizan las cuentas; eso lo realiza un equipo del foro, a menudo a petición del usuario.
Las plataformas han sostenido durante mucho tiempo que la prohibición fantasma es necesaria para lidiar con el spam, pero las prohibiciones fantasma no engañan a los bots. Sorprendentemente, resulta que cuando las plataformas hablan de “spam”, se refieren al contenido escrito por usted y por mí, usuarios genuinos. Pero no han sido sinceros sobre esta definición.