为了打击儿童性虐待,Apple 打算在美国 iPhone 上安装一个程序来搜索非法图像,特别是包括虐待或剥削儿童的图像,但是,许多专家认为这可能会对用户的隐私构成威胁,因为如果他们这样做这可以为全球用户监控数百万台设备打开大门。

苹果计划扫描美国 iPhone 中的虐待儿童图像


苹果的新系统

本周早些时候,苹果公司向一些美国学者详细介绍了其提议的名为 NeuralMatch 的系统,据两位听取了虚拟会议简报的安全研究人员称,预计苹果公司的计划将在本周尽快得到更广泛的实施。

NeuralMatch 是一个自动化系统,如果他们认为检测到非法图像,它会主动提醒一组人类审查人员,之后审查人员将联系执法部门并报告设备所有者。


苹果和执法机构

苹果和 Facebook 等科技公司与执法机构之间的紧张局势加剧,因为苹果在 2016 年拒绝帮助 FBI 访问枪击案嫌疑人的 iPhone横冲直撞,加利福尼亚州圣贝纳迪诺。

为了满足所有各方,无论是用户还是当局,Apple 宣布了新的 Neural Match 系统,这是其保护客户隐私的承诺与政府和执法机构对刑事调查(包括恐怖主义)提供更多协助的持续要求之间的折衷方案。和儿童色情。


神经匹配如何工作?

NeuralMatch 算法会不断扫描存储在美国用户 iPhone 上的照片并上传到 iCloud 备份系统中的已知儿童性虐待图像。

苹果公司根据美国非营利组织国家失踪和受虐儿童中心收集的大约 200000 万张性侵犯图像对系统进行了训练。

据知情人士透露,在美国上传到iCloud的每张照片都会得到一张“安全凭证”,说明是否可疑,如果有可疑,将立即向当局报告。


苹果与隐私

Apple 可能认为隐私是每个用户的权利,尽管在儿童剥削和虐待问题上有着良好的意图,但许多安全专家担心 Apple 可能会冒着让世界各国政府寻求访问其公民个人数据的风险,这可能会导致超越原来的目标。

“这是一个绝对可怕的想法,因为它会导致大规模监视,因为可以操纵 Apple 的系统来寻找任何其他有针对性的图像和文本,最重要的是,Apple 的想法会增加其他科技公司使用类似技术的压力,”剑桥大学安全工程教授罗斯安德森说。

曾在 Facebook 和 Deliveroo 工作的安全研究员和隐私活动家亚历克·莫菲特 (Alec Moffitt) 表示,苹果的举动“完全出乎意料,是隐私方面的重大倒退”。

约翰霍普金斯大学安全学教授马修格林被认为是第一个就这个问题发推文的研究人员,他也认为苹果所做的将打破大坝,因为政府会迫使其他公司也这样做。

萨里大学计算机安全教授艾伦伍德沃德说:“苹果的系统侵入性较小,因为扫描是在手机上完成的,如果有匹配,就会通知当局,这种分散的方法是你最好的方式可以采用以保护隐私。”

从您的角度来看,您认为 Apple 的做法是正确的还是侵犯了隐私,请在评论中告诉我们

相片:

“金融时报”

相关文章