在线安全法案(新的Ofcom规定)

您好

英国政府正计划修改在线安全法,我想知道 Discourse 正在采取哪些措施来应对这一问题,或者是否有针对在英国托管的用户的建议性回应?

https://www.ofcom.org.uk/online-safety/illegal-and-harmful-content/time-for-tech-firms-to-act-uk-online-safety-regulation-comes-into-force/

我们的社区正在研究这个问题,但我不清楚这是否是我们的责任还是 Discourse 的责任,理论上这意味着每个 WhatsApp 群聊或 Discord 服务器都需要这样做。

提前感谢您的帮助(我确实检查过,但找不到关于此事的最新帖子)。

1 个赞

来自 Ofcom 网站:“公司现在有法律义务开始采取行动打击其平台上的犯罪活动”

我认为 Discourse 已经提供了一种通过“非法”标志来打击犯罪活动的方法,以提醒员工网站上的非法活动。现实地说,除了采取像非法标志选项这样的措施,还能做些什么?

7 个赞

是的,我们正在处理。我们已经关注了近一年,并且已经做好了准备。

这是我们双方的责任。我们提供符合 OSA(因为我们在 Meta 上必须遵守)的工具,但您需要负责如何使用它们。

关键考虑因素是:

我们有 @ondrej 上面发布的非法内容标记功能,这应该会促使您使用现有工具以合规的方式删除内容并进行适当的报告。

同上——非法标记或其他自定义标记类型可供您使用。我们正在进行一项更改,以便未登录用户也可以标记非法内容。@tobiaseigen,我们对此有时间表吗?

您需要自己定义内部流程,但所有数据都会被记录下来,因此您可以在需要时报告。

见上文。

这是您的责任。

这也是您需要组织的。

这也是您的责任。

而且……这也是您的责任。

11 个赞

对于我们所面临的所有事情,您是否有建议的流程和文案?

出于好奇:英国如何定义小型、中型和大型服务提供商?

1 个赞

我也很感兴趣,如果有人能找到答案,我也想知道。虽然我找不到具体的定义,但似乎不同规模的服务提供商受到略微不同的对待。“我们不要求功能有限的小型服务提供商采取与大型企业相同的行动。” Gov.uk, 第 6 段

1 个赞

论坛软件能否轻松提供一年的版主操作列表?或者按例如响应标记筛选的版主操作?我不想保留单独的记录。(有时我会因为标记而删除用户 - 这在响应标记时不是一个选项。)

1 个赞

没有,恐怕我们不太可能提供这些。就像 GDPR 一样,我们提供合规的工具,但您需要寻求自己的法律建议。

2 个赞

HN 上有一个讨论 在此(涉及一个人关闭了 300 个论坛的特定案例),其中包含有用的信息和官方文档链接。

据我了解,每月 70 万活跃英国用户是中型的门槛。700 万是大型的门槛。

请注意,我认为法律的某些方面对服务规模不敏感,而其他方面则敏感。

更多信息请参阅
(草案)用户对用户服务的非法内容行为准则(ofcom 链接)

我认为这是一个论坛所有者面临低概率但高成本风险的案例。个人判断以及对风险的看法和风险态度将发挥作用。

2 个赞

谢谢。所以,它的全部威力只适用于少数人。

我一个住在英国的朋友是我好奇的部分原因,因为她为此非常恐慌。

以下是风险评估指南:https://www.ofcom.org.uk/siteassets/resources/documents/online-safety/information-for-industry/illegal-harms/risk-assessment-guidance-and-risk-profiles.pdf?v=387549

2 个赞

感谢 Hawk。(我看到 PDF 链接指向最新版本,尽管它看起来像指向特定版本的链接。)

这里 提供了一个合理的(但非官方的)描述,说明新法律可能对不专门针对儿童或提供色情内容的自托管小型论坛意味着什么。我认为,关键在于理解法律并记录你的方法。在此基础上:

义务

作为小型用户对用户服务,OSA 要求你:

  • 评估非法内容的风险*(s9)*
  • 采取适当措施来减轻你已识别的非法内容风险*(s10(2)(c))*
  • 采取适当措施,防止人们接触到优先内容(s10(2)(a))*
  • 采取适当措施,减轻人们犯下优先罪行的风险*(s10(2)(b))*
  • 允许用户轻松举报非法内容以及对儿童有害的内容,并将其删除*(s20)*
  • 允许用户就举报、删除等提出投诉*(s21)*
  • “特别注意保护用户表达自由的权利的重要性”(s22(2))

你不必过于担心这些义务——风险评估过程会指导你完成遵守这些义务所需的操作。

2 个赞

到目前为止,大家应该已经掌握了所有进行风险评估所需的OfCom信息。一旦你完成了风险评估,你会得到一份识别出来的风险清单,你可能想要减轻这些风险。我相当有信心我们已经具备所有工具,但如果有人不确定,我们可以在这里进行讨论。

3 个赞

您有这方面的参考资料吗?我们进行了广泛搜索,但找不到任何将用户数量定义为“规模”(老实说,这是我对 OSA 的最大抱怨之一)的内容。

2 个赞

我还发现这也是最难确定的事情之一。我不确定我们是否负责评估Meta平台的风险(作为社区的管理员),或是更普遍地使用Discourse的风险(对我们的客户而言的风险)。

如果是后者,我不知道我们会归入哪个规模类别。事实证明,实际上是前者。

我们在研讨会上了解到,Ofcom已经联系了他们目前认为属于某一类别的平台,这个类别需要的不仅仅是年度自我评估,并且已通知他们必须正式提交自我评估报告。如果你还没有被联系,我认为你可以假设你需要进行自我评估、完成任何缓解措施,并在每年或范围发生重大变化时重新评估。如果被要求,你需要能够展示你的评估工作,但不需要将其提交到任何地方。

但请注意,我和你们一样对这方面也很新,所以请将这仅仅视为我的个人意见,而不是合规建议。你们需要自己进行研究。

5 个赞

我刚刚查看了当前草案指南,其中定义了大型服务,但没有定义中型服务。但它在几个地方提到了针对拥有70万用户服务的注意事项,例如:

1 个赞

OfCom 举办了一场名为“独立和社区网站合规性”的网络研讨会,适合我们这类网站,请参阅此链接获取笔记、链接和视频:

您好 @HAWK,我想知道是否有可能有一个简单的、单页(或论坛帖子)来记录 Discourse 的功能如何解决提出的问题?

目前,我零散地指向您在此主题中的回复、关于举报非法内容的其他帖子、聊天频道中的管理员等作为我们的证据,如果有一个“官方”页面列出产品本身的核心功能,以便作为证据引用,也许会更有帮助?对于审查该平台的人来说,有信心它满足要求可能也很有帮助。

1 个赞

嘿 Ruth,
我很乐意帮忙,但我需要先澄清一件事。

[引用=“Ruth Cheesley, 第26帖, 话题:342713, 用户名:RCheesley”]
Discourse 功能如何解决提出的问题?
[/引用]
你指的是哪些具体的问题?你在风险评估中已经识别出来的问题吗?如果是这样的话,随时告诉我你想要减轻的事项,我可以帮你提供工具建议。

每个人需要减轻的风险不同,容忍这些风险的程度也不同。因此,我无法提供任何确切的列表。例如,我们不允许 13 岁以下儿童使用 Meta,所以我们不需要考虑与儿童相关的许多高风险。

如果你愿意分享你的评估,我很乐意用它作为一个例子。

2 个赞

对于不知道从何开始的任何人,此工具都将指导您完成整个过程。

https://www.ofcom.org.uk/os-toolkit/assessment-tool/

3 个赞