苹果反虐童技术被发现漏洞,苹果回应

预计苹果将推出其功能 新的儿童安全 CSAM 今年晚些时候,特别是随着 iOS 15 的发布,其中一位开发人员表示,他们发现了该功能在旧版 iPhone 操作系统中运行的算法,并发现了该技术中的一个缺陷和技术缺陷。 那么这个缺陷是什么,苹果的反应是什么?

苹果反虐童技术被发现漏洞,苹果回应


CSAM 图像分析和扫描功能

一位 Reddit 用户表示,他在 iOS 14.3 中发现了一个用于检测 CSAM 图像的 NeuralHash 算法版本。

苹果的回应是:提取的版本不是最新的,不会被使用。

名为 AsuharietYgvar 的开发人员能够找到隐藏在 iOS 14.3 中的 NerualHash 代码,并表示他对代码进行了逆向工程,并在 Python 中重建了一个工作模型,该模型可以通过传递这些代码的图像进行测试。

开发人员声称该算法不会被图像压缩或调整大小所迷惑,但它无法检测裁剪或旋转图像的过程。 使用 Python 语言,GitHub 平台的用户开始检查算法的工作原理,以及它是否可以被滥用和利用以威胁 iPhone 用户。 ,因此理论上黑客可以将这些看起来非常自然的照片作为您的设备壁纸或正常风景发送给 Apple 用户,以尝试运行算法并捕获它们并导致它们出现问题。


不是最终版本

尽管存在这些缺点,但可以说发现的算法不是最终版本,因为 Apple 多年来一直在构建 CSAM 图像检测算法,因此应该有一些版本的代码用于测试。

至于制作假照片发送给iPhone用户诱捕的可能性,没那么简单,因为苹果不会泄露照片,除非他们与云端同步,并且不要忘记人工审核以确保照片实际上包含虐待儿童,所有这一切都意味着这种攻击在理论上被认为是正确的,但在实践中却是困难的。


苹果回应

苹果在一份声明中表示,在 iOS 14.3 中发现的 NeuralHash 代码不是最终版本,目前还没有人在 iOS 15 测试版中发现 CSAM 数据库或匹配算法,但该功能预计将在完整版之后推出。系统外观 全新推出iOS 15。

您如何看待 Apple 的新儿童安全功能,是否担心它可能会被滥用,请在评论中告诉我们

相片:

4条评论

评论用户
穆罕默德·扎拉尼(Mohammed Al-Zahrani)

他们逮捕我吃孩子,因为我的手机里满是视频,我和孩子们一起玩,好像我在吃他们一样哈哈哈哈哈哈哈

评论用户
穆罕默德

苹果仍然没有说要通知和补偿那些照片经过人工审查并被证明是无辜的用户。

Apple 是否会通过向 Apple 员工展示他们的私人照片来补偿他们侵犯他们的隐私?

5
1
评论用户
马哈茂德·哈桑(Mahmoud Hassan)

当然,它会被用来在我们不知情的情况下搜索其他东西,各国可以用它来搜索其他任何东西。
苹果不是天使,归根结底是只对筹集资金感兴趣的剥削性公司

6
1
评论用户
赛义德·阿卜杜勒·阿莱姆

感谢您的努力和兴趣

1
2

发表回应

对于上述信息的任何滥用,我们概不负责。 iPhone Islam既不隶属于Apple,也不代表Apple。 iPhone,Apple以及此处引用的任何其他产品名称,服务名称或徽标是Apple Computer的商标或注册商标。

العربية简体中文NederlandsEnglishFilipinoFrançaisDeutschΕλληνικάहिन्दीBahasa IndonesiaItaliano日本語한국어كوردی‎فارسیPolskiPortuguêsРусскийEspañolTürkçeУкраїнськаاردوTiếng Việt