环球新资讯:沉寂 1 年多后,苹果宣布 iCloud 放弃儿童性虐待材料(CSAM)检测计划
发布时间:2022-12-08 07:10:26 文章来源:IT之家
当前位置: 主页 > 资讯 > 国内 > 正文


(资料图)

12月8日消息,在分享给WIRED的一份声明中,苹果今天宣布iCloud云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于2021年8月开始测试,主要会检测存储在iCloud的CSAM图像资料,但自推出以来备受争议。

Illustration:Jacqui VanLiew

苹果最初表示,CSAM检测将在2021年底之前在iOS15和iPadOS15的更新中实现,但该公司最终根据"客户、宣传团体、研究人员和其它方面的反馈"推迟了这项功能。现在,经过一年的沉默,苹果已经完全放弃了CSAM检测计划。

了解到,苹果的计划受到了广泛的个人和组织的批评,包括安全研究人员、电子前沿基金会(EFF)、政治家、政策团体、大学研究人员,甚至还包括一些苹果员工。

一些批评者认为,该功能将为设备创造一个"后门",政府或执法机构可以利用它来监视用户。另一个担忧是误报,包括有人可能故意将CSAM图像添加到另一个人的iCloud账户中,使其账户被标记。

苹果公司在声明中表示:

在广泛征求专家意见,收集我们去年提出的儿童保护举措的反馈后,我们正加大对2021年12月上线的Communication Safety功能的投资。我们决定不再推进我们之前提出的iCloud照片的CSAM检测工具。

儿童可以在没有公司梳理个人数据的情况下得到保护,我们将继续与政府、儿童倡导者和其它公司合作,帮助保护年轻人,维护他们的隐私权,让互联网成为儿童和我们所有人更安全的地方。

标签: 研究人员 年提出的 可以利用

最近更新