预计苹果将推出其功能 新的儿童安全 CSAM 今年晚些时候,特别是随着 iOS 15 的发布,其中一位开发人员表示,他们发现了该功能在旧版 iPhone 操作系统中运行的算法,并发现了该技术中的一个缺陷和技术缺陷。 那么这个缺陷是什么,苹果的反应是什么?

苹果反虐童技术被发现漏洞,苹果回应


CSAM 图像分析和扫描功能

一位 Reddit 用户表示,他在 iOS 14.3 中发现了一个用于检测 CSAM 图像的 NeuralHash 算法版本。

苹果的回应是:提取的版本不是最新的,不会被使用。

名为 AsuharietYgvar 的开发人员能够找到隐藏在 iOS 14.3 中的 NerualHash 代码,并表示他对代码进行了逆向工程,并在 Python 中重建了一个工作模型,该模型可以通过传递这些代码的图像进行测试。

开发人员声称该算法不会被图像压缩或调整大小所迷惑,但它无法检测裁剪或旋转图像的过程。 使用 Python 语言,GitHub 平台的用户开始检查算法的工作原理,以及它是否可以被滥用和利用以威胁 iPhone 用户。 ,因此理论上黑客可以将这些看起来非常自然的照片作为您的设备壁纸或正常风景发送给 Apple 用户,以尝试运行算法并捕获它们并导致它们出现问题。


不是最终版本

尽管存在这些缺点,但可以说发现的算法不是最终版本,因为 Apple 多年来一直在构建 CSAM 图像检测算法,因此应该有一些版本的代码用于测试。

至于制作假照片发送给iPhone用户诱捕的可能性,没那么简单,因为苹果不会泄露照片,除非他们与云端同步,并且不要忘记人工审核以确保照片实际上包含虐待儿童,所有这一切都意味着这种攻击在理论上被认为是正确的,但在实践中却是困难的。


苹果回应

苹果在一份声明中表示,在 iOS 14.3 中发现的 NeuralHash 代码不是最终版本,目前还没有人在 iOS 15 测试版中发现 CSAM 数据库或匹配算法,但该功能预计将在完整版之后推出。系统外观 全新推出iOS 15。

您如何看待 Apple 的新儿童安全功能,是否担心它可能会被滥用,请在评论中告诉我们

相片:

相关文章