2022年苹果撤销CSAM检测功能诉讼

2024-12-10

IT 世家 12 月 9 日报消息,苹果公司正在 2022 原定的儿童性虐待材料每年撤销。(CSAM)测试计划被起诉。一个童年时期遭受性虐待的人 27 年龄较大的妇女以化名起诉苹果,起诉他违反了保护受害者的承诺。


苹果在 2021 年底宣布计划通过设备端哈希值系统扫描。 iCloud 为了检测和阻止图片中的图片 CSAM 通信,并在客户发送或接收含有外露内容的照片时发出警告。当前,外露内容检测功能(Communication Safety)仍然存在,但是 CSAM 由于隐私专家、儿童安全组织和政府的广泛反对,检测功能被撤销。


起诉者说,她在这里 CSAM 当测试功能还在的时候,我收到了执法机关的通知,发现她被性虐待的照片是通过佛蒙特州查获的。 MacBook 被上传到了 iCloud。在诉讼中,她说苹果停止了这一功能的决定,使得这些材料不断发展,于是,苹果向消费者出售了“有缺陷的商品”,对像她这样的用户群造成了伤害。


根据该女子的一位律师的说法,原告要求苹果改变他的做法,并向可能性高达 2680 其它符合条件的受害者提供赔偿,这类受害者有权依法获得至少每个人的赔偿。 15 一万美元的赔偿。如果所有受害者都成功获得赔偿,苹果的赔偿可能会超过 12 亿美金(IT 家族备注:目前的约定 87.28 亿元)。


北卡罗来纳州发生了类似的案件。一名 9 岁 CSAM 受害者控告苹果,称她通过 iCloud 该链接收到陌生人发送的非法视频,并受到鼓励拍摄和上传类似内容。苹果提出了一项驳回案件的动议,指出联邦法规第一 230 条条保护其免于向用户上传。 iCloud 材料承担责任。但是最近法院裁定,这种法律保护只适用于积极的内容审查,可能会削弱苹果的抗辩理由。


苹果发言人弗雷德针对新的诉讼・塞恩兹说:“苹果认为儿童虐待材料令人发指。我们致力于积极打击相关犯罪,而不损害用户的隐私和安全。”他提到苹果在信息应用中拓展了外露内容检测功能,用户可以举报有害材料。然而,原告及其律师玛格丽特・马比认为苹果的措施远远不够。


马比说,她发现超过了执法报告和相关文件。 80 举一个与受害者图像和苹果产品相关的例子,其中一个分享这些图像的人是一个湾区男子, iCloud 帐户存储超过了 2,000 非法图片和视频张。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com