这不是法律建议请求,本主题中的任何回复均不应被视为法律建议。
这是一个通用、非特定建议的请求。
这是我在这里发帖的第一个主题,问起来真的很尴尬,但我一直找不到任何像样的答案。我正在研究如何在我可能需要的时候从我的 S3 备份中删除非法内容,并且我做出了一个不幸的(?)决定,就是“咨询”ChatGPT,看看我是否应该了解任何可能与之相关的法律……这让我陷入了这场混乱。
背景
去年,美国国会通过了 REPORT 法案,该法案规定 提供商的义务 向 NCMEC(失踪和被剥削儿童国家中心)CyberTipline 报告 CSAM(儿童性虐待材料)事件,并将其内容保留 长达一年。根据我的有限理解,“提供商”包括任何托管 Discourse 论坛的人,因为我们是 “电子通信服务提供商或远程计算服务提供商”。
据我所能找到的,欧盟的主机提供商有报告义务,但没有像美国那样的保留政策,除了 某种提案(我没有完全阅读这个 PDF,但至少在第 8 页提到了)。
我确实找到 一篇文章,其中提到英国也有 《2025 年在线安全(CSEA 内容报告)条例》,将于 2025 年 11 月 3 日生效。它似乎规定提供商还必须将这些 CSAM 数据存储一年。我认为我还读到英国提供商被要求使用图像哈希检测来过滤掉已知的 CSAM 图像以及 CSAM URL,但我找不到来源。
这是否适用于我们,作为 Discourse 社区?
可能吧?我没有找到任何相反的证据,但如果我错了,请纠正我。
对我来说,我一直在努力为一位家庭成员的小型企业设置一个自托管的 AWS Discourse 服务器(同时学习 Cloud Engineering/DevOps/IaC),并且有人在我们的论坛上发布 CSAM 的可能性微乎其微。
我更有可能在晴天被闪电击中两次。
但是,我希望拥有所需的保留存储基础设施和一个计划,以防某个不怀好意、自我毁灭的个人想要制造麻烦——一种“紧急情况时打破玻璃”的准备。我指的是设置一个专用的保留存储桶,使用加密和/或 IAM 角色来保护它,保留访问日志,制定一个将此 CSAM 数据安全地从您的上传存储桶转移出去的程序等。
问题
我的问题主要针对美国的主机提供商,尽管英国和欧盟的主机提供商可能很快也需要这些答案。
- 你们以前在社区中处理过 CSAM 内容吗?
- 你们的处理程序是什么?NSFW AI Triage → 报告 → 存储?你们何时联系了律师(如果联系了的话)?你们如何处理可能存储了这些数据的数据库+上传备份?
- 你们是否设置了所需的保留存储?如果是,你们如何遵守相关法规?
- 专用的 S3 存储桶?加密?你们是否在不同的云账户中?
- 你们是否在基础设施中使用任何主动的图像哈希检测/阻止软件,以防止此类内容首先进入您的服务器?有没有不贵的解决方案?
我将非常感谢任何形式的通用、非法律指导或参考资料,因为我在网上找到的所有信息似乎都针对的是在大公司工作、拥有大量资金和经验的人,但我很确定这些法律适用于所有人。即使没有人会在全球任何 Discourse 论坛上上传此类非法内容,我也宁愿谨慎行事。