阅读 111

苹果:绝不会扫描iCloud中的非CSAM图像 会拒绝政府的监控要求

苹果:绝不会扫描iCloud中的非CSAM图像 会拒绝政府的监控要求

 8 月 10 日消息,当地时间周一苹果公司强调,其为保护儿童而推出的图片分析新功能只会扫描 iCloud 云服务中是否存储有儿童受虐材料(CSAM)。

  上周,苹果宣布已经开始测试新功能,使用复杂加密技术来识别用户是否将已知的儿童受虐材料上传至 iCloud 云存储服务。苹果表示,其可以在不查看用户照片内容的情况下做到这一点。

  苹果周一重申,这套检测 CSAM 图像的新功能使用自家服务器和软件,比谷歌和微软等公司使用的系统更加私密。相关软件将通过 iOS 更新安装在用户 iPhone 上。

  苹果的这项新功能主要通过比对特定图片的哈希值来进行检测。苹果公司强调,美国政府不能强迫苹果将非 CSAM 图像的图片信息添加到哈希列表中。

  苹果称,“苹果的 CSAM 检测功能仅用于检测存储在 iCloud 照片中、已经被美国国家失踪和受虐儿童中心(NCMEC)和其他儿童安全组织专家识别出的 CSAM 图像。”公司补充称,“我们曾被要求作出会降低用户隐私保护的改变,但我们坚决拒绝了这些要求。今后我们将继续这么做。”

  声明还说:“明确一点,这项技术仅限于检测存储在 iCloud 中的 CSAM 图像。”

  根据规定,美国公司需要向 NCMEC 报告 CSAM 图像,如果发现 CSAM 图像而不报告,将面临最高 30 万美元的罚款。

  多年来,苹果一直在强调保护用户隐私。2016 年,苹果与美国联邦调查局(FBI)当庭对峙,为的是在执法机构调查一起枪击案时保护自家设备加密系统的完整性。

  但苹果也面临着来自执法机构的巨大压力。他们担心犯罪分子可能会利用隐私工具和加密手段,防止非法信息落入执法人员手中。

  苹果利用自家设备在隐私保护方面的声誉,在金融和医疗保健领域开辟出新的市场。但围绕苹果 CSAM 图像检测新功能的一系列争议威胁到苹果打造安全私密设备的公众声誉。

  批评人士担心,这一功能也会 iPhone 上运行,而不是只扫描上传至公司服务器的照片。苹果竞争对手通常只扫描存储在服务器上的照片。

  科技评论员本·汤普森(Ben Thompson)周一表示:“苹果曾如此执着于保护隐私的特殊愿景,但最终却背叛了用户控制的基础:能够相信你的设备确实是你的。这真的令人失望。”

  苹果则强调,自家的 CSAM 图像检测新功能会带来真正改进,既可以保护儿童,同时也能保护 iPhone 用户隐私。

  苹果表示,从公司追踪的每一个隐私指标来看,CSAM 图像检测新功能都比之前系统更好、隐私属性更强。

  苹果一名代表称,通过将一些处理转移到用户设备上,苹果无需在服务器端检查每一张图像就能比对 CSAM 图像,隐私属性更强。

  苹果周一表示,这一功能不会扫描未上传到 iCloud 的用户照片。苹果还证实,会对已经上传至 iCloud 的照片进行处理。苹果表示,这些功能将在今年晚些时候通过 iPhone 更新发布。之后用户会收到通知,苹果开始将 iCloud 上存储的照片与已知 CSAM 图像所对应的哈希值进行比对。(辰辰)


来自: www.163.com

站长资源 https://www.cscnn.com/


文章分类
后端
版权声明:本站是系统测试站点,无实际运营。本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 XXXXXXo@163.com 举报,一经查实,本站将立刻删除。
相关推荐