Lectura muy interesante. Sin embargo, me pregunto si realmente hay algún uso para las prohibiciones fantasma en Discourse.
Sí, existe un plugin de prohibición fantasma, pero apenas se usa. Tiene una (1) estrella en Github y las estadísticas que tenemos en Communiteq revelan que el número de foros de Discourse que lo usan activamente es inferior al 0,5%.
Entonces, ¿por qué la adopción de las prohibiciones fantasma en la plataforma Discourse es tan baja? No es porque las prohibiciones fantasma sean malas (que lo son), tiene otra razón. Desde un punto de vista técnico, las prohibiciones fantasma son muy fáciles de detectar en Discourse. Simplemente visita el foro sin iniciar sesión o usando otra cuenta y observa las diferencias. Y eso es posible porque Discourse no es una plataforma de redes sociales que utiliza un algoritmo que decide qué verás y en qué orden se presenta. En Discourse, el contenido que se te muestra no depende de lo que hayas hecho / visto / leído o escrito antes. Y si no hay un algoritmo, no hay lugar para minimizar cierto contenido. Solo existe la opción de ocultarlo por completo en lugar de mostrarlo.
Tampoco apoyo todas las formas de moderación transparente, porque la moderación transparente aún puede ser subjetiva.
Además de mi trabajo en el ecosistema de Discourse, también soy fundador de una empresa que combate la desinformación y el discurso de odio en línea. Durante las charlas, a menudo me preguntan por ejemplos de interferencia extranjera en los procesos democráticos de este país (los Países Bajos), donde las personas que hacen la pregunta siempre esperan que cuente alguna historia sobre trolls rusos. Pero, de hecho, los principales ejemplos de interferencia en los procesos democráticos por parte de actores extranjeros que hemos visto en este país son plataformas de redes sociales como Twitter o YouTube que prohíben o prohíben fantasma a políticos holandeses, sin ningún tipo de revisión por parte de un tribunal u otro organismo independiente.
Y eso es malo.