Apple devrait lancer sa fonctionnalité Nouveau CSAM pour la sécurité des enfants Plus tard cette année, en particulier avec le lancement d'iOS 15, l'un des développeurs a déclaré avoir trouvé l'algorithme grâce auquel la fonctionnalité fonctionnait dans les anciennes versions du système d'exploitation de l'iPhone et avait découvert une faille et une faille technique dans cette technologie. Alors, quel est ce défaut et quelle a été la réponse d'Apple ?

Une faille a été découverte dans la technologie anti-abus d'enfants d'Apple, et Apple répond


Fonction d'analyse et de numérisation d'images CSAM

Un utilisateur de Reddit dit avoir découvert une version de l'algorithme NeuralHash utilisé pour détecter les images CSAM dans iOS 14.3.

La réponse d'Apple était : La version extraite n'est pas à jour et ne sera pas utilisée.

Le développeur connu sous le nom d'AsuharietYgvar a pu trouver le code NerualHash enfoui dans iOS 14.3 et a déclaré qu'il avait procédé à une ingénierie inverse du code et reconstruit un modèle de travail en Python pouvant être testé en transmettant des images de ces codes.

Le développeur affirme que cet algorithme n'est pas dupe de la compression ou du redimensionnement de l'image, mais il ne peut pas détecter le processus de recadrage ou de rotation de l'image. En utilisant le langage Python, les utilisateurs de la plate-forme GitHub ont commencé à examiner comment l'algorithme fonctionne et s'il peut être mal utilisé et exploité d'une manière qui menace les propriétaires d'iPhone. , ainsi, en théorie, un pirate informatique pourrait envoyer ces photos très naturelles comme fond d'écran de votre appareil ou comme paysage normal aux utilisateurs d'Apple pour essayer d'exécuter l'algorithme, les piéger et leur causer des problèmes.


Pas la version finale

Malgré ces défauts, on peut dire que l'algorithme découvert n'est pas la version finale, car Apple construit l'algorithme de détection d'images CSAM depuis des années, il est donc censé y avoir des versions du code à tester.

Quant à la possibilité de créer de fausses photos et de les envoyer aux utilisateurs d'iPhone pour les piéger, ce n'est pas si simple, car Apple ne révèle les photos que si elles sont synchronisées avec le cloud et n'oubliez pas l'examen humain pour s'assurer que les photos contiennent réellement des abus sur les enfants, tout cela signifie que l'attaque est supposée vraie en théorie mais difficile dans la pratique.


Apple a répondu

Apple a déclaré dans un communiqué que le code NeuralHash découvert dans iOS 14.3 n'était pas la version finale, personne n'a encore découvert l'existence d'une base de données CSAM ou d'un algorithme correspondant dans la version bêta d'iOS 15, mais la fonctionnalité devrait être lancée dans sa version complète après l'apparition du système Nouveau lancement iOS 15.

Que pensez-vous de la nouvelle fonctionnalité de sécurité pour enfants d'Apple, et craignez-vous qu'elle puisse être utilisée à mauvais escient, dites-nous dans les commentaires

Source:

vice

Articles connexes