影子禁令对言论不利,原因如下

我在这个话题的版主管理上看到了一些鼓舞人心的帖子,比如 @codinghorror 的帖子 1,我想加入讨论。

最近 Twitter 1 的披露重新点燃了关于使用类似“影子禁令”的版主管理工具的争论。它们对讨论是有利还是有害?在这篇帖子中,我希望引发版主和用户之间关于影子禁令使用的讨论。

我的假设是,透明的版主管理能够培养一个准备充分的用户群体,版主和用户之间相互信任,而影子版主管理则会带来比解决更多的问题。因此,我认为像影子禁令这样的做法永远不应该被使用,即使是对于像 Discourse 这样的“小型”论坛。

关于我

我是 Reveddit 的作者,这是一个向 Reddit 用户展示他们被秘密删除内容的网站。Reveddit 于 2018 年推出,从那时起,我一直在 Reddit 1、Hacker News 1 以及最近的 Twitter 1 上公开反对广泛使用我称之为“影子版主管理”的类似影子禁令的工具。如果有人怀疑所有最受欢迎的平台都在某种程度上进行影子版主管理,请参阅我在 Truth and Trust Online 2022 的演讲 1,幻灯片 8-9,时间点 5:50,或者我参与的 Using the Whole Whale 播客 1。如果有人怀疑这种做法在所有用户群体中都不受欢迎,请参阅 Reveddit FAQ 1 中数千名用户的反应。

序言

供参考,以下是一些对类似影子禁令行为的现有定义:

  • “故意让某人的内容除了发布者本人之外,对所有人都无法发现,而发布者本人对此毫不知情”。- Twitter 博客 1
  • “一个被‘地狱禁’(hellbanned)的用户对所有其他用户都是隐形的,但关键是,他对自己是可见的。从他们的角度来看,他们正常参与社区,但没有人回应他们。他们再也无法干扰社区,因为他们实际上是一个幽灵。”- Coding Horror 1

以下是我对这两种行为的定义:

  • 透明的版主管理:当用户收到对其内容采取行动的通知时。

  • 影子版主管理:任何掩盖版主对其行动内容作者采取行动的行为。

请注意,当平台谈论透明度时,它们仅仅意味着它们清楚地阐述了它们的政策。这不是透明版主管理的同义词。

需要明确的是,我确实支持使用透明的版主管理。我支持政府干预社交媒体以强制平台透明化,例如美国正在尝试的 PATA 1 或欧洲的 DSA 1(分别是《平台问责与透明法案》和《数字服务法案》)。因此,我也接受平台进行影子版主管理的合法权利。

支持透明版主管理的论据

支持透明版主管理的论据最好定义为反对影子版主管理的论据。

影子版主管理违背了人身保护令,这是一个有千年历史的概念,即被告有权面对其控告者。人身保护令的价值观被写入了美国宪法的一项修正案(第六条),但这也是我们期望自己拥有的基本尊严,因此也应该给予他人。简单地说,秘密的惩罚是不公正的。

现在你可能会说,“但这是私人平台!”确实如此。然而,在私人领域,我们仍然努力维护某些理想,正如 FIRE 的 Greg Lukianoff 在此 这里 所解释的那样。

约翰·斯图尔特·密尔在他的《论自由》中提出了同样的观点,他写道:“因此,仅有免受治安官暴政的保护是不够的:还需要有免受普遍舆论和情感暴政的保护。” 1

现在你可能会说,“我们需要它来处理机器人垃圾信息!”这只能在短时间内奏效。长远来看,机器人会发现如何检查其内容的可见性,而用户大多不会。因此,透明的版主管理对机器人同样有效,而影子版主管理只会伤害真正的个人。

也许你会说,“我只在一个小型论坛上使用它。”在那里,我会问,真的有必要诉诸欺骗吗?在小型 Discourse 安装上习惯于影子版主管理,可能会成为支持在大型平台上使用它的垫脚石,而那里的危害对我来说是显而易见的。每个地理位置、每个平台上的每个问题的每一方都受到了影响。超过 50% 的 Reddit 用户在上个月的使用中都有评论被删除。它打断了无数的对话,也许是出于对“放任仇恨”的恐惧。但 Reveddit 已经存在四年了,这种情况并没有发生。相反,我观察到的是更健康的社区,我在我的演讲中链接了许多这样的例子。

大规模的影子版主管理也会赋权于你的意识形态对手。你认为不文明的群体更有可能不文明地使用影子版主管理。当你掌握实施此类工具的权力时,任何好处都会随着时间的推移而消失。只要你使用影子版主管理,你就无法在其他地方赢得关于其使用的争论。

据我所知,关于影子版主管理影响的研究很少。我知道有一项研究表明,随着透明度的提高,版主的工作量会减少 1。然而,我们确实知道开放的社会比封闭的社会更繁荣。

如果任其发展,影子版主管理会滋生孤立的部落群体,他们无法适应现实世界中不存在此类保护的对话。这可能导致暴力或自残行为,因为当我们未能接受我们能控制的范围有限时,言语造成的伤害是真实的。我们可以选择用反驳言论来回应仇恨,并鼓励用户群体也这样做。

最后,新的立法无法为我们解决这个问题。任何此类法律都会侵犯我们的个人自由,并可能产生意想不到的后果,即(a)赋权于权利法案旨在保护的实体,或(b)无效,因为无法在不向政府提供所有代码访问权限的情况下强制执行透明度。所以你要么回到原点,要么比开始时更糟。对人身保护令以及因此对文明讨论的支持,最好通过文化上支持实际的透明版主管理来实现。任何低于此标准的做法都只是掩盖溃烂伤口的创可贴。

结论

总之,你不应该采取“他在这样做,所以我也必须这样做才能在公平的条件下竞争”的立场。相反,要考虑你们双方的立足点可能都很糟糕。不使用影子版主管理的 Discourse 安装和其他论坛拥有更坚实的基础。它们的用户群体准备充分,版主和用户相互信任,因此双方都感到可以公开诚实地发言。而且,鉴于影子版主管理的广泛使用,现在比以往任何时候都更重要的是要公开支持透明的版主管理。

附录

Twitter 上一个尚未报道的影子版主管理的使用案例可能是当推文因提及某些链接而被自动隐藏时。我发现这一点是因为我分享了一个指向我新博客的链接,我为该博客购买了一个便宜的每年 2 美元的域名,顶级域名是 .win。在通过 Twitter 分享后,我注意到我的推文对我自己可见,但对其他人不可见。例如,这条推文 1 在点击“显示更多回复”按钮时,并没有显示我的回复。要查看我的回复,你必须直接访问链接 1。实际上,这条回复对任何不认识我的人来说都是不可见的,而系统在我登录时会向我隐瞒这一事实。

* 我认为广泛审查有用的唯一情况是当社会忘记了它的危害时。在这种情况下,它不可避免地会再次出现,即使只是为了再次提醒我们它的有害影响。

20 个赞

很有趣,谢谢。

你也可以轻松地争辩说,还有另一层,像谷歌这样的搜索引擎!

6 个赞

非常有趣的读物。然而,我想知道 Discourse 是否有使用“影子禁令”的必要。

是的,有一个影子禁令插件,但很少使用。它只有一个 (1) 个 Github star,而 Communiteq 的统计数据显示,积极使用该插件的 Discourse 论坛数量不到 0.5%。

那么,为什么 Discourse 平台上的影子禁令采用率如此之低呢?并非因为影子禁令不好(尽管它们确实不好),而是有其他原因。从技术角度来看,在 Discourse 上检测影子禁令非常容易。只需在未登录的情况下或使用另一个帐户访问论坛,即可发现差异。这是因为 Discourse 不是一个使用算法来决定您将看到什么以及如何呈现内容的社交媒体平台。在 Discourse 中,您看到的内容不取决于您之前做过/看过/读过或写过的内容。而且,如果没有算法,就没有地方可以淡化某些内容。除了完全隐藏它之外,别无选择。

我也不支持所有形式的透明审核,因为透明审核仍然可能是主观的。

除了我在 Discourse 生态系统中的工作外,我还是一家致力于打击在线虚假信息和仇恨言论的公司创始人。在演讲中,我经常被问及外国干预我国(荷兰)民主进程的例子,提问者总是期望我讲述一些关于俄罗斯巨魔的故事。但事实上,我们在该国看到的外国势力干预民主进程的主要例子是,像 Twitter 或 YouTube 这样的社交媒体平台禁止或影子禁令荷兰政治家,而没有任何法院或其他独立机构的审查。

这是很糟糕的。

13 个赞

你好理查德,

谢谢你的意见。我并不完全相信 Discourse 的使用量很小。我们无法在用户自行构建和共享工具来审查这些系统的行为之前,来验证安装的自定义代码等。即使使用量确实很小,公开表态仍然很重要,因为其他地方的使用量也曾很小,但现在已非常普遍。我不同意你在这里的评论,

那么为什么在 Discourse 平台内采用影子禁令的比例如此之低呢?这并不是因为影子禁令不好(它们确实不好),而是有其他原因。从技术角度来看,影子禁令在 Discourse 上很容易被检测到。只需在未登录的情况下访问论坛或使用其他帐户,就能发现差异。

虽然这在技术上是可能的,但大多数用户不会想到这样做。毕竟,Reddit 的评论删除功能也是如此,你可以通过评论 r/CantSayAnything 来查看。99% 的 Reddit 用户不知道它是这样工作的。我在 Reddit 上有一个账户长达七年,才发现它广泛使用影子审核。在此之前,我也可能作为读者访问了三年。即使 Reveddit 已经问世四年了,我估计仍不到 1% 的 Reddit 用户了解评论删除是如何工作的。最后,即使在构建了 Reveddit 之后,直到今年夏天,也就是四年后,我才真正明白影子审核工具存在于所有主要平台上并且被广泛使用。

我同意你的观点,操纵算法信息流更难检测。而且正如你所说,非算法过滤的内容是可以审查的。然而,按日期排序的评论部分总是属于这一类,我相信每个主要的社交媒体网站都有。因此,只要有人构建工具来做到这一点,这些评论就可以被审查,因为用户不会想到自己去检查。即使你确实检查了一次评论的状态,版主也有可能在一小时后悄悄删除你的评论,从而使你的检查无效!这就是我构建 Reveddit Real-Time1 的原因,这是一个轮询系统以进行影子删除并通知你何时发生的扩展。

在用户和社交媒体网站之间建立足够的信任,以至于影子审核已成为过去之前,应该为所有平台构建此类工具。影子审核非常普遍,我认为任何人都应该假设他们正在使用的任何通信系统都在使用它,除非该系统明确否认这种做法。即使那样,你也需要注意他们的措辞,例如 Twitter 选择公开使用“rank”(排名)1 这个词,而不是像“de-amplify”(降级)1 这样的内部描述符。另一方面,YouTube 更公开地承认它将“reduce”(减少)1 内容。

透明审核仍然可以是主观的。

你能详细说明一下吗?

除了我在 Discourse 生态系统中的工作外,我还是一个致力于打击在线虚假信息和仇恨言论的公司创始人。

有趣,你能说说是哪家公司吗?而且你提到的讲座有在线版本吗?我同意 YouTube 的禁令也令人担忧。我怀疑它们的护城河,就像其他公司一样,是使用“减少”或“影子删除”的影子审核工具建立的。因此,我们应该首先关注这一点

我认为我们这个时代的真正审查是影子审核。透明审核如果不是“观点中立”的,也可能构成审查,但它更像是编辑。对真正审查的最终反对意见来自一位著名的第一修正案律师 Bob Corn-Revere:“审查者永远没有道德制高点。”1

3 个赞

我同意审核应该是透明的,但我可以看到影子禁令对于处理那些挥之不去的巨魔很有诱惑力。对于那些在被网站工作人员禁止后不断创建新账户的人,有什么替代方法来处理他们?

8 个赞

作为第二大 Discourse 托管服务提供商的创始人之一,我拥有这种方式——至少对于我们托管的实例而言——所以我很幸运能够在此进行一些具有统计学意义的计算。而且,如果存在一种广泛的影子禁令功能,它能以某种神奇的方式完全独立于“我们的”实例,那么在过去的 9 年里我甚至都不会听说过它。这,嗯,可能性很小。

你的帖子似乎模糊了影子禁令(其中某些用户的帖子被屏蔽)和影子审核(针对单个帖子)之间的区别,但我认为这种区别很重要。

除了影子禁令更容易检测到的技术差异(如果你能找到某个用户的帖子,那么他们就没有被影子禁令),影子禁令更加邪恶,因为某人的言论自由是基于他们之前说过的话而受到限制,而影子审核则屏蔽了他们当前的言论。

我认为影子审核的主要问题在于它的主观性,而不是它的沉默。当人们收到内容删除通知时,这也可能导致不希望出现的行为(例如重新发布或挑衅)。一个例子是 COVID-19 期间发生在 LinkedIn 上的事情。他们大多数时候会通知内容删除,所以人们开始拍摄他们被删除帖子的照片并重新发布。这不仅引起了他们帖子的更多关注(因为 LinkedIn 似乎无法识别照片中的文字,所以这些帖子一直未被发现),还助长了“大重置”阴谋论,认为有一个更大的力量在限制他们的言论自由。

嗯,就是这个:

5 个赞

嗨 Simon,背景信息非常重要。您有什么具体的例子吗?一般来说,我建议设想这个负担不必完全落在内容管理人员的肩上。与您的社区互动,解释这个困境。也许可以在不禁止的情况下解决。如果您认为这很天真,那么就需要更多的背景信息来讨论。

2 个赞

理查德,感谢您的澄清。您提供的数据点很有价值。我认为我们可以同意,目前在 Discourse 上,“影子审核”似乎不是什么大问题。

尽管如此,我个人仍不会宣布“一切安好”,原因已如前所述,而且即使是单个论坛使用它也可能产生重大影响。例如,Reddit 上的某些群组比其他群组更频繁地使用影子审核。用户可能会因为某些群组确实会通知他们内容被移除而对整个系统产生信任感。因此,他们认为这种情况一直都在发生。接下来常常发生的是,那些更具“操纵性”的群组反而更受信任,仅仅因为它们不会告知用户内容被移除。久而久之,这导致了更多群组默认进行无通知的内容移除。Reveddit 在一定程度上对此有所帮助,但如果没有更广泛的认识,它仍然只是权宜之计。

我不难想象一个不实行透明审核的 Discourse 安装,从而以同样的方式利用用户。我同意,影子审核在其他地方的广泛使用并不意味着它在 Discourse 上也很普遍。我认为已发布的插件和错误修复请求可以证明影子审核至少正在敲响 Discourse 的大门。

除了技术上的差异,影子封禁更容易被检测到(如果你能找到某个用户的一条帖子,那么他们就没有被影子封禁),

从用户的角度来看,这个测试是无效的。选择性地影子审核内容的系统不会宣传它们这样做。此外,“更容易”并不意味着“容易”。这位用户[1]在 Reddit 上被全站影子封禁了三年才发现,而且许多其他用户也经常被子版块影子封禁,例如在 r/LibertarianUncensored 中记录的那样[1]。

Reddit 现在还有一个名为“人群控制”的功能,允许子版块版主一键自动移除所有非常规订阅者的评论,且不进行通知。在一个 r/conservative 的帖子[1]中,4000 条评论,超过 50%,被自动影子移除。这些用户都不知道他们参与该群组的发言经常被静默。

影子封禁更加邪恶,因为某人的言论自由受到他们过去所说的话的限制,而影子审核则压制他们当前的言论。

影子封禁(针对整个账户的内容)是影子审核的一种形式。“选择性隐形”[1]这个术语可能更准确地描述了您所说的“影子审核”。在我看来,两者都可能同样有害,原因在于上述的麻痹效应,以及选择性隐形仍然可以在没有人工审查被审核内容的情况下应用。在 Reddit 上,这构成了大多数评论移除;版主不会逐一审查并批准它们,我猜想其他平台也是如此。

最后,我同意人们可能会争论什么构成审查,甚至什么是完全透明的审核。我认为这里更重要的一点是,我们在社交媒体上的透明审核相去甚远,而且对影子审核的普遍性认识也相去甚远,以至于任何朝着这个方向迈出的一步都意义重大。换句话说,不要因为追求完美而阻碍了好的事情。

5 个赞

嗨,Rob,我同意 @simon 的观点,在某些情况下,影子禁令在纯粹的功能基础上可能有用。我个人不想深入探讨这个话题更深层次的道德和哲学问题,但我确实看到过多个非常明确的案例。通常涉及一个整个论坛都知道的明显捣乱者,此人曾多次被封禁,但不断使用不同的用户名回归,而且这种麻烦制造者总是使用 TOR 网络。同样的情况也适用于那些发布极其亵渎的言论、糟糕的侮辱甚至令人不安的淫秽图片,甚至是具体的、有针对性的身体威胁的愤怒用户。因此,我所指的这类情况是用户应该绝对不能出现在论坛上(甚至在某些情况下应该被禁止在公共场合出现)的清晰明确的例子,他们的在线行为违反了世界上几乎所有体面人士的规范。影子禁令至少可以争取一些时间,直到这类用户意识到并创建另一个账户。

6 个赞

这很难说。我无法提供具体例子,但 Discourse 影子封禁主题的副标题很好地概括了这一点:“处理那些挥之不去的巨魔的最后手段。”还有这个:

我处理这种情况的方法是,在用户的账户中添加一个备注,使用 https://meta.discourse.org/t/discourse-user-notes/41026,以便网站上的其他版主能够收到关于该用户的警告,并确保他们因任何新的违规行为而被迅速封禁。我从未遇到过用户最终消失不了的情况。

我认为我们应该尽自己的一份力量,努力让世界变得更美好。我在这里描述的问题类型是处理那些(在我看来)似乎有心理健康问题的用户。我想知道如何帮助他们成为互联网和现实世界中更好的公民。

6 个赞

你完全可以认为还有另一层,像谷歌这样的搜索引擎!

没错。我更关心按日期排序的评论部分中的隐藏移除。在那里,危害是显而易见的,而且相对容易构建工具来显示它正在发生的地方。我认为,诀窍在于发展对这一运动的支持。它目前还不存在。人们甚至不知道它正在发生。而且,在人们仍然说“我们需要这样的工具来应对最坏的情况”的程度上,我认为这是片面的,因为这种新形式的隐藏审查所造成的危害被边缘化了,或者从未被考虑过。尽管如此,如果我们想提高对透明审查对话的支持,这可能是一场需要进行的对话。
你说得对,不透明的算法也可以进行隐藏审查。我听说有研究认为谷歌会操纵你在输入时搜索建议中出现的内容,但我对此没有来源,所以对我来说仍然是传闻。你也可以故意偏向训练数据,或者未能注意到数据中已有的偏见。或者,你可以争辩说,什么是偏见是主观的,因为数字世界永远不会精确地反映现实世界。
这些都是更深入的讨论,其中许多只会在私下进行。我认为,如果人们对评论部分中隐藏审查的普遍性有更广泛的认识,从而对这样做有更广泛的支持;也就是说,对透明审查的支持,这些讨论就更有可能发生。顺便说一句,我对这些术语并不执着,所以如果你有更好的想法,请大声说出来。

1 个赞

你好 Rahim,

很高兴你加入讨论。

我个人不想深入探讨这个话题更深层次的道德和哲学问题,但我见过许多非常明确的案例。

你能举出一些这样的例子吗?没有它们,这确实更像是一个理论讨论,而不是一个经验性的讨论。请注意,有些内容确实是非法的1。此类内容应报告给有关部门。我假设你指的是受宪法保护但会给用户带来其他伤害的言论。

我链接了几个案例,证明了影子审查的持续使用是多么有害,而且我还没有看到一个例子表明一个巨魔(a)不断发布边缘性的、受宪法保护的言论,并且(b)在被告知后不会离开。也许是因为这种情况很少见。

假设的最坏情况总是被用来证明权力集中的合理性。在 Reddit 上,像 r/news 这样的群组每一百万拥有账户的订阅者只有一名版主。读者的数量可能至少是这个比例的十倍。考虑到那里的版主是匿名的、未经培训的志愿者,这一点非常值得注意。他们决定数亿人将在评论区看到什么,而甚至连评论作者都没有监督。

这通常涉及到整个论坛都知道的一个明显巨魔,这个人被多次封禁,并且不断用不同的用户名回来,这种麻烦制造者总是使用 TOR 网络。对于那些愤怒地发布粗俗言论、侮辱性言论,甚至令人不安的淫秽图片,甚至具体的身体威胁的沮丧用户也是如此。

这是否证明了实施用户群不知道的审查制度是合理的?

这里是我与一个喜欢争吵的人互动的一个例子。你可以从 BillHicksScream 的评论历史1中看到,他们总是到处说挑衅性的话。然而,他们对我的最后一条评论无话可说。

在其他情况下,让不守规矩的用户说最后的话可能是最好的选择。正如 Jonathan Rauch 所说1,你只需要在教条面前显得合理。不必说服巨魔/极端分子他们是错的。他们会筋疲力尽。

影子禁令至少可以争取一些时间,直到那种用户意识到这一点并创建另一个帐户。

然后呢?当用户最终意识到他们的讨论被操纵了,因为权力攫取对任何个人来说都太大了,诱惑太大而无法抗拒时,会发生什么?像 Discourse 的创始人 Jeff Atwood 这样没有将影子审查内置到软件中的人是例外,而不是规则。

科技界现在正在发生一场文化转变1。整个团队被裁员,用户正在发现影子审查。诚实的科技是前进的方向。看看人们发现真相时的反应1

……为什么要让我们认为被删除的帖子仍然是有效的和可见的?

……所以版主删除了评论,但评论者仍然可以看到。多么阴险。

……令人震惊的是,你没有收到任何通知,对你来说评论仍然显示为未删除。这意味着版主可以在不向任何人负责的情况下设定他们想要的任何叙述。

……哇。他们可以删除你的评论,而你的评论在你这边仍然显示为未删除吗?

……哇。我在这里已经 12 年了,一直认为这是一个人们可以公开分享想法的酷地方。结果发现它比中国审查得更厉害。很快就会被删除……

所以,这适得其反。在用户看来,你现在就是那个审查者,说:“用户不应该看到这个,只有(版主)能够忍受它。”

顺便说一句,审查者从不称自己为审查者,正如我在这里指出的1。这是因为“审查”一词自 Anthony Comstock 时代以来就被视为一件坏事。因此,它经常被重新措辞,使用诸如选择性隐形1、可见性过滤1、排名1、仅自己可见1、减少1、降级1或伪装的禁令1等术语。这些都是平台和影子审查的支持者用来避免说出那个坏词“审查”的短语。这个列表无穷无尽,因为重点在于掩盖,而不是揭示他们正在做什么。

你说你不想进行哲学讨论,但当你与意见不同的人打交道,同时又尊重个人自由时,像科学家一样思考,而不是像律师或士兵一样思考,并好奇对方的想法来源,可能会有所帮助。Greg Lukianoff 将此称为“人类知识项目”\视频片段\] \[文章\].

简而言之,应该考虑审查制度造成的危害。对巨魔造成的危害的短视看法,而不考虑当今真正的审查制度造成的危害,并不能促进关于内容审核的对话,因为你只看到了事情的一部分。影子审查几乎对 100% 的公众都是隐藏的。

考虑到在发生影子审查时,有如此多的用户无法帮助调解讨论,因此有理由让他们参与进来。在不尝试通过透明的审核和反驳来让社区参与进来的程度上,我称之为在线威权主义——一种上帝般的思维方式,版主假装比其他人都了解。最终,这会给管理员带来比它本身更麻烦的问题,我认为你可以从 Twitter、Facebook 和 Reddit 周期性的动荡中看到这一点。这些平台上的用户已经待了足够长的时间,开始发现操纵,他们想要更好的东西。

2 个赞

我处理这种情况的方法是,在用户的 Discourse 用户备注中添加一条备注,以提醒网站上的其他版主注意该用户,并确保他们因任何新的违规行为而被迅速封禁。我从未遇到过用户最终消失不了的情况。

这与我的经验一致,即透明的版主管理有助于人们理解规则,并决定他们是否想遵守规则或在其他地方交流。我引用的关于版主工作量的研究也证实了这一点。

我认为我们应该尽自己的一份力量,努力让世界变得更美好。我在这里描述的问题是处理那些在我看来似乎有心理健康问题的用户。我想知道如何帮助他们成为互联网和现实世界中更好的公民。

西蒙,你的出发点很好!我认为那些在被要求离开后“就是不走”的个人非常罕见,但如果真的发生了,我认为他们应该享有我们给予每个人的尊重,即某种程度上的“审判权”。并非每一次在线违规都会进行全面的审判,因此我提出的折衷方案是,所有用户都应该知道他们何时受到了版主管理。剥夺这一点就像剥夺了司法权。关于心理健康,即使是精神科医生,在没有亲自检查个体的情况下也不会做出这样的评估,所以我认为我们也不应该这样做。“他们疯了”将不可避免地成为通过影子版主管理剥夺审判权的借口。

如果内容是违法的,是“在特定情境下,直接造成特定、紧迫的严重伤害”*¹(这是娜丁·斯特罗森的定义),那么应该向有关部门举报。

最后,如果你认为自残是一个因素,那么你可以推荐一个危机热线。理论上来说,影子般地删除倡导对自己或他人施加暴力的用户的评论,可能会使他们更有可能采取错误的信念。

考虑一个你认为是仇恨的群体。他们可能仍然会移除实际暴力的呼吁。但如果版主秘密地这样做,那么有暴力倾向的个人就不会收到他们观点不符合社区的信号。谁能说这会使他们更有可能或更少可能采取行动呢?他们可能会认为缺乏反击是对默许的认可。

我的论点与布兰代斯大法官的论点相同,即阳光是最好的消毒剂*¹,而解决方案需要社区的参与。与其影子般地删除评论,即使是仇恨的评论,你也可以给他们一个关于删除的信号。这个信号就成了一个机会,让他们从其他互动中受益,无论是来自你的社区、另一个社区还是执法部门。这样做,你可能会让社会边缘群体有机会减少孤立感,从而使你和世界更安全。

总的来说,我试图遵循乔纳森·劳奇的建议。他

“你正在交谈的人并不是你直接交谈的那个人……”

基本上,你不需要说服每个人你都是对的。在面对另一个固执甚至审查他人的人时,表现得合理就足够了。虽然一个人可以通过试图用仇恨的言论来压倒你,从而在法律上进行审查,但如果你给予他们适当的自由,他们也会显得像个傻瓜。任何认为这在网上不起作用的看法,很可能是因为影子般删除的广泛使用。当你试图在“仇恨”群体的空间里与他们互动时,你可能会在不知情的情况下被影子般删除!

在同一个演讲中,劳奇“仇恨者最终会自掘坟墓,如果你让他们说话。” 他对此很了解。作为一个在 60 年代长大的同性恋者,正如这里描述的,劳奇几十年来一直积极参与同性恋权利运动,并且可以说取得了相当大的成功。所以,无论你对同性恋或同性婚姻有什么看法,他关于言论自由的观点都值得倾听。从西班牙宗教裁判所,到安东尼·科姆斯托克,到共产主义和麦卡锡主义,再到蒂珀·戈尔领导的 PMRC,当前的社交媒体时代并不是言论自由第一次受到挑战,也不会是最后一次。

我发现劳奇的心态在管理我自己的参与方面非常有效,让别人表达自己的想法,同时仍然能表达我的观点。我不断发现新的方法来接受(a)我只能改变自己,(b)这足以对世界产生积极影响。

4 个赞

这里可能存在两个独立的问题。第一个问题是版主们在尽力处理有问题的行为。有人建议在此处采用“影子禁令”(shadow banning)来处理令人讨厌的用户:https://meta.discourse.org/t/discourse-shadowban/85041。我能理解这种动机,但我认为它作为一种版主管理技术不会获得太多支持——如果一个用户如此固执,这只会推迟不可避免的冲突。

第二个问题是发生在其他平台上的情况,这些平台上某些用户的帖子传播范围受到限制,但用户却不知道发生了什么。值得注意的是,这些用户并未违反服务条款 (TOS)。从技术上讲,可以创建一个 Discourse 插件来实现类似的功能,但除非网站非常活跃,否则我认为它很快就会被发现。我实际上认为 Discourse 和其他去中心化社区平台是解决这个问题的良方。举一个极端的例子,如果有人想创建一个社区,将说“地球围绕太阳转”视为危险的错误信息,他们可以自由地这样做。持日心说观点的人可以找到另一个社区加入。

另一个问题是,如果一个社区的托管或支付处理商因为其观点与某个问题上的主流叙事相悖而无法找到。除了努力倡导知识好奇心和多样性的价值观之外,我对于如何处理这个问题没有更好的建议。

也许吧,但为实际问题找到解决方案也是一个好的商业策略。如何帮助人们处理他们的“巨魔式”行为,而不是仅仅封禁他们,这似乎是一个未解决的问题。我可以想象 Discourse 提供一些工具来帮助社区解决这个问题。也可以将其外包给一个由训练有素的治疗师组成的外部服务机构。

5 个赞

Simon,感谢您花时间回复。我明白您不认同我的论点,即巨魔有时可以被放任不管(即通过透明审核而非隐藏审核),您似乎也不认同隐藏审核可能会因使用量增加而诱惑 Discourse。也许是这样,也许不是。我认为时间会证明一切,但未必很快。我强烈反对“隐藏审核会‘很快被发现’”的说法。我确实同意,促进智力好奇心和多样性不容低估,并且良好的商业策略起着根本性作用。

2 个赞

在此处交叉链接官方 Discourse 帖子

12 个赞

也许我在表达我的想法时过于谨慎了:

我认为隐藏封禁是个糟糕的主意。话虽如此,我对互联网的未来有很多担忧,但就 Discourse 而言,我不担心隐藏封禁或暗中操纵网站内容会流行起来。首先,如上所述,Discourse 核心代码中不存在此功能,团队也没有计划为其开发插件。其次,我看不出将此类功能添加到 Discourse 网站有什么有效用例——我无法想象在何种情况下实施它会使网站所有者受益。

如果我还能推广一件事,那就是分歧的价值。提倡分歧而非认同,是汇集一个群体所有观点的最快方式。

5 个赞

我知道有些情况需要一个影子禁令插件/功能。

我们有一个付费项目,99% 的学生都喜欢它。然后,我们遇到了一些“害群之马”,他们进入论坛,用负面情绪“毒害”其他人。现在这些人已经付费了,所以“害群之马”在散布 FUD(恐惧、不确定和怀疑),新来的人看到 FUD,他们就会要求退款。

“害群之马”也付了钱,我们也不希望他退款,因为通常是这类人占用了我们的大部分时间。

我的员工花费大量时间与“害群之马”打交道,并阻止他们毒害“好苹果”。

所以是的……我们只想对“害群之马”进行影子禁令,这样支持团队就可以回复他们的帖子和回复,他们会认为自己“在里面”,生活对我们的支持团队来说是快乐和幸福的,我们很棒的用户也不会被毒害。

在你建议“直接退款给‘害群之马’”之前……不,那不是答案。

我们需要一个针对主题和回复的影子禁令功能,如果我们要永久影子禁令他们,还需要针对每个用户。

这个功能有一个合法的用例。

2 个赞

出于好奇,为什么在这种情况下,将不良成员从你的社区中移除不是答案?

当他们发现自己付费却未能完全获得(例如参与你的社区)时,这是否会成为一个更大的问题?

5 个赞

他们会退款。但他们获得的不只是社区。论坛只是其中一小部分。软件、工具、教育。他们不能做的是在社区中散布恐惧、不确定性和疑虑(FUD)来打击他人,并导致他人怀疑或想要退款。在做了20年后,我们知道生活中总有一部分人会对一切持消极态度,所以我们需要保护那些正在采取行动的付费客户。

如果他们只是为论坛付费,那情况就不同了……但这是一款2000美元的产品,所以我们必须保护我们的付费会员免受那些消极人士的侵害。

2 个赞