《网络安全法》- 将推出哪些新功能?

大家好,

我知道《在线安全法》已于 2023 年 11 月在英国成为法律。我想知道 Discourse 是否会推出任何新功能来支持这项新法律,并帮助让 18 岁以下人群使用的在线社区更安全?

谢谢!

7 个赞

:wave:

添加了一个新的“这是非法的”标志选项。

5 个赞

我可以看一下链接吗?我想了解一下英国的变化。

3 个赞

这里有一份说明

3 个赞

我刚发现一个可能引起 Discourse 相关人士兴趣的即将举行的讨论会:

“Promising Trouble 将与 Ofcom 的 Ali Hall 和 Andrew Park 举办一次午餐会,讨论针对小型、低风险社区网站新的在线安全责任。”

2025 年 2 月 12 日,星期三 – 中部标准时间上午 6:30 - 上午 8:00

这里有一些关于这个话题的有趣帖子:

我目前正在处理 OSA 的合规性事宜。

虽然大部分工作似乎是记录组织已考虑并试图减轻非法伤害风险的情况,但我想知道是否有人开发了可共享的文档或自动化工具来帮助为论坛中缺乏恶意活动提供证据基础?

我曾考虑过:

  • 使用 Data Explorer 查询来搜索特定关键词或使用模式?
  • 提供“监视词”列表,以改进对帖子和私人消息的标记?
  • 使用 Discourse AI 配置或提示来帮助标记令人担忧的活动?
  • 改进“英国 OSA 批准”服务条款的模板?
  • 其他“系统管理员技巧和窍门”,以在最少额外工作的情况下最大限度地提高保护措施的有效性?

我像任何人一样担心所有这些可能带来的隐私问题,但如果接受审计,我们需要能够证明我们投入了足够多的精力来检查是否没有发生任何非法活动,并且能够每年提交(并审查)这些证据。

Watched words 听起来可能是个好主意,尽管当然它是一种粗略的工具。

我可能会选择记录一个定期检查用户间消息使用情况的流程。但这对我来说是可行的,因为我的用户几乎不使用该功能。
/admin/reports/user_to_user_private_messages

如果这些消息有所增加,可能表明风险升高,我需要对此做出回应。我不确定在以下极端情况之间有什么选择:

  • 用户会告知管理员消息是否存在问题
  • 管理员会阅读部分(或全部)消息以检查它们是否存在问题

我个人不希望进行可能产生误报和漏报的自动化分析。

我将(会)专注于简单的陈述,将我的论坛定位为在所有方面风险都非常低。因此,成比例的检查就是什么都不做,或者如果要做什么,那就做一些非常微小且容易的事情。依赖标记(flags)是简单易行的。

1 个赞

我刚开始为我们的社区设置自托管 Discourse,我这边也提出了这个担忧。许多网站正在实施身份验证来规避法律问题。我们的社区最低年龄将为 16 岁,并且托管在英国。虽然报告非法内容是需要考虑的,但我意识到这是一个供成人使用的服务,我们需要遵守规定。是否有更多工具将用于此目的,或者它目前是否符合法律的变更?

有人在使用年龄验证服务进行集成吗?

1 个赞