在过去的几天里,苹果一直备受关注,因为它受到了很多批评。 图像扫描功能 凭借其为保护儿童和防止虐待或剥削儿童而推出的设备,或所谓的 CSAM 图像,许多隐私组织甚至专家都表示担心将此功能变成黑客甚至政府可以利用的漏洞侵犯 iPhone 用户的隐私,为了消除任何混淆或澄清和正确解释事情。Apple 以常见问题解答的形式发布了一个文件,解释了有关其新功能的所有内容以及幕后发生的事情,让我们了解一切关于儿童安全功能以及它是否真的威胁到用户的隐私。

苹果回应在其反虐待儿童功能中侵犯隐私的指控


iCloud 照片中的消息保护和 CSAM 有什么区别?

这两个功能是不同的,并且不使用相同的技术,因为 Messages 中的通信安全旨在为父母和孩子提供额外的工具,以帮助保护他们的孩子免于在 Messages 应用程序中发送和接收色情图片。 它仅适用于在设置了家庭共享的儿童帐户的消息应用程序中发送或接收的照片,然后分析设备上的照片,因此不会暴露消息的隐私。有用和放心,如果他不这样做也可以“不想查看或发送图片,作为额外的预防措施,还可以告诉幼儿,为了他们自己的安全,如果他们的父母看到它,他们会收到一条消息。

第二个功能,iCloud 中的 CSAM 照片扫描,旨在将 CSAM 排除在 iCloud 照片之外,而无需向 Apple 提供与已知 CSAM 照片匹配的照片以外的任何照片的信息。 在包括美国在内的大多数国家/地区,拥有 CSAM 图像都是非法的。 此外,此功能仅影响选择使用 iCloud 照片存储照片的用户,不影响未选择使用 iCloud 照片的用户。 对设备上的任何其他数据没有影响,并且此功能不适用于消息。


谁可以在消息中使用连接安全?

信息中的通信安全仅适用于在 iCloud 中设置为家庭的帐户。 父母或监护人必须选择为家庭启用该功能,并且父母通知只能由父母或监护人为 12 岁或以下儿童的帐户启用。


这是否意味着这些消息将与 Apple 或执法机构共享?

当然不是,由于消息中的此功能,Apple 将永远无法访问消息中的信息。 此功能不会与 Apple、NCMEC 或执法机构共享任何信息。 Messages 中的通信安全功能与用于 iCloud 照片扫描的 CSAM 功能是分开的。


这是否会破坏消息应用程序中的端到端加密?

不。 这不会导致信息侵犯隐私,并且 Apple 将永远无法访问您的联系人,因为此功能。 Messages 应用程序的任何用户,包括那些启用了联系人安全功能的用户,都可以完全控制发送的内容和对象。

 如果为孩子的帐户启用了该功能,设备将评估消息中的图像并在图像被识别为不当时提供干预。这是不合适的,Apple 无法访问消息、干扰通知或对照片进行评分。


此功能是否可以防止受虐待的儿童寻求帮助?

连接安全功能仅适用于在消息中分享或接收的色情图片,与受害者可以用来寻求帮助的其他应用程序无关,包括短信。如何寻求帮助的说明。


是否会在不警告孩子的情况下通知父母并让他们选择?

不。 哦不; 父母或监护人帐户必须注册以启用消息中的通信安全 父母通知已为 12 岁或以下儿童的帐户启用,但在此之前,发送或接收任何淫秽或不适当的图像,儿童会被警告,如果他们继续查看或发送图片,将向其父母发送通知,如果孩子在此警告后继续发送或查看图像,将通知父母 对于 13-17 岁儿童的帐户,孩子仍会收到警告并询问他们是否想查看或分享性照片,但未通知父母。


这是否意味着 Apple 会检查我设备上存储的所有照片?

此功能仅适用于用户选择上传到 iCloud 的照片,该功能不适用于禁用 iCloud 照片的用户,也不适用于 iPhone 上的照片库。


CSAM 图像是否下载到我的设备以与我的图像匹配?

不,CSAM 图像不会存储在设备上或发送到设备。 Apple 使用存储在设备上的不可读哈希值代替实际图像。 这些哈希是代表已知 CSAM 图像的数字字符串,但无法再次读取或转换为不相关的图像。 这组图像哈希基于获得的图像,并由儿童安全组织验证为 CSAM。 借助新的加密应用程序,Apple 可以仅使用这些哈希来识别存储与已知 CSAM 照片匹配的批量照片的 iCloud 帐户,然后只能识别不合适的儿童照片,而无法识别或查看任何其他照片。


为什么现在?

Apple 面临的一大挑战是在保护用户隐私的同时帮助保护儿童。 借助新功能,Apple 将检测存储在 iCloud 中的 CSAM 照片,并且该公司不会了解有关存储在您设备上的其他数据的任何信息。

其他公司依赖的现有技术扫描存储在云中的所有用户图像。 这给用户带来了隐私风险,但与 Apple 的照片扫描功能不同,例如无法识别照片,除非它们都与已知的 CSAM 照片匹配并且包含在包含许多规范 CSAM 照片的 iCloud 帐户中。


iCloud 的 CSAM 图像检测系统可以用来检测其他东西吗?

苹果表示,流程设计可以防止这种情况发生。 CSAM 图像检测专为 iCloud 图像而设计,因此系统仅适用于 NCMEC 和其他儿童安全组织提供的 CSAM 图像哈希。

这组图像哈希基于获得的图像,并由儿童安全组织验证为 CSAM。 没有自动向执法部门报告,Apple 在向国家失踪和受虐儿童中心 (NCMEC) 提交报告之前会进行人工审查。

因此,该系统仅设计用于报告 iCloud 照片中称为 CSAM 的照片。 在包括美国在内的大多数国家/地区,拥有这些图像是一种犯罪行为,Apple 有义务向有关当局报告我们发现的任何情况。


政府能否强制 Apple 将非 CSAM 图像添加到哈希列表文件中?

苹果将​​拒绝任何此类要求。 CSAM 检测功能旨在仅检测存储在 iCloud 照片中的已知 CSAM 照片,这些照片已由 NCMEC 和其他儿童安全组织的专家确定。

我们之前曾面临过构建和发布破坏用户隐私的政府强制变更的要求,我们坚决拒绝了这些要求。 未来我们将继续拒绝它。 需要明确的是,这项技术仅限于检测存储在 iCloud 中的 CSAM,我们不会批准任何可能涉及其他文件的政府请求。

此外,Apple 在向 NCMEC 提交报告之前会进行人工审查。 如果系统标记了与已知 CSAM 图像不匹配的图像,则不会禁用该帐户,也不会向 NCMEC 提交任何报告。


CSAM 是否可以针对其他事物或特定人群进行定制?

我们的流程旨在防止这种情况发生。 用于匹配的图像哈希取自儿童安全组织获取和验证的已知和现有 CSAM 图像,并且相同的哈希存储在每个 iPhone 和 iPad 用户的操作系统中,因此针对性攻击仅针对特定个人由我们的设计启用并且没有自动向执法部门报告,Apple 在提交报告之前进行人工审查,如果系统不太可能标记与已知 CSAM 图像不匹配的图像,则该帐户将不会被禁用且不会提交任何报告。


无辜的人会因为这个功能出错吗?

不,该系统的设计非常准确,系统错误标记任何给定帐户的概率每年不到每万亿个帐户中的一个。此外,每当系统标记一个帐户时,Apple 都会进行人工审查在向 NCMEC 提交报告之前,因此,系统错误或攻击不会导致无辜者的报告。

您如何看待 Apple 检测儿童不当图像的新功能,请在评论中告诉我们

相片:

苹果

相关文章