据《纽约时报》报道,苹果公司因决定放弃扫描 iCloud 照片中儿童性虐待内容(CSAM)的计划,正面临一项索赔 12 亿美元的诉讼。

iCloud 常规功能

该诉讼于周六在北加州提起,代表了 2,680 名潜在受害者,并指控苹果未能实施之前宣布的儿童安全工具,导致有害内容继续传播,对受害者造成持续伤害。

2021 年,苹果宣布计划在 iCloud Photos 中实现 CSAM 检测,以及其他儿童安全功能。然而,该公司遭到了隐私倡导者、安全研究人员和政策团体的强烈反对,他们认为这项技术可能会为政府监控创造潜在的后门。苹果随后推迟并放弃了该计划。

苹果当时解释了这一决定,称对用户私人 iCloud 存储实施全面扫描将引入重大安全漏洞,恶意行为者可能会利用这些漏洞。苹果还表示担心,这种系统可能会开创一个有问题的先例,因为一旦内容扫描基础设施出于某种目的而存在,它就可能面临压力,需要扩展到不同类型的内容和消息平台(包括使用加密的平台)的更广泛的监控应用中。

诉讼案的首席原告以化名提起诉讼,称她不断收到执法部门的通知,称有人因持有她婴儿时期的虐待照片而被指控。诉讼称,苹果公司决定不执行其宣布的安全措施,这迫使受害者一再重温他们的创伤。

针对该诉讼,苹果发言人弗雷德·塞恩斯强调了公司打击儿童剥削的承诺,并表示苹果“正在紧急积极地创新,打击这些犯罪行为,同时又不损害我们所有用户的安全和隐私。”苹果指出,现有的“通信安全”等功能可以警告儿童注意潜在的不当内容,这是其持续儿童保护工作的例子。

标签: 苹果, iCloud, 儿童

添加新评论