Root Nation消息资讯资讯用户 Apple 反对在 iCloud 中扫描他们的照片

用户 Apple 反对在 iCloud 中扫描他们的照片

-

几天之前 Apple 宣布将引入新技术,该技术将使用设备上的机器学习扫描上传到 iCloud 的照片,并将其哈希值与国家失踪与受虐儿童资料库 (NCMEC) 中已知的儿童性虐待材料 (CSAM) 图像进行匹配。 她还表示,如果 13 岁以下的儿童收到或发送色情照片,她会通知父母。

此举引起了很多关注和批评,在撰写本文时,已有超过 6 人签署了一封抗议该问题的公开信。

iCloud的

您可以在相应页面上了解信件全文 网页. 消息是直接处理的 Apple. 它说,虽然公司的行为是出于好意,但开发人员在他们的生态系统中创建了一个后门,破坏了用户的基本隐私权。 此外,连同这封信,还给出了一些组织和信息安全专家的声明,他们确信新技术 Apple 破坏了用户数据隐私的概念。

“声明后立即 Apple 世界各地的专家敲响了警钟,担心所提供的东西 Apple 这些措施可以将每部 iPhone 变成一台设备,可以持续扫描通过它的所有图像和消息,以提醒执法机构注意任何不需要的内容。 这开创了一个先例,用户的个人设备成为侵入式监视的全新工具,而监督最少,以防止可能的滥用和不必要的监视扩展,”这封信的作者认为。

Apple 反过来回答说是误会,会及时纠正,今天她兑现了诺言。 在一份六页的文件中 该公司详细介绍了其照片扫描技术及其安全性。 该报告指出,无论是执法部门还是任何其他组织,包括 Apple, 不会以任何方式被告知孩子发送或接收具有性意味的图像。 因此,它不违反任何现有的隐私保证或端到端加密。 该公司还强调,它不会将 CSAM 图像下载到您的设备以进行比较。 相反,它会计算图像的哈希值并将它们与已知的 CSAM 内容进行比较以确定匹配项。

iCloud的

Apple 表示其系统非常准确,每年误报的概率小于万亿分之一。 即使在最坏的情况下,在向国家失踪与受虐儿童中心报告之前,也会有一名后备审核员手动审核被标记的帐户。

另请阅读:

DzhereloNeowin网站
注册
通知关于
客人

0 评论
嵌入式评论
查看所有评论