Apple devrait lancer sa fonctionnalité Nouveau CSAM pour la sécurité des enfants Plus tard cette année, en particulier avec le lancement d'iOS 15, l'un des développeurs a déclaré avoir trouvé l'algorithme grâce auquel la fonctionnalité fonctionnait dans les anciennes versions du système d'exploitation de l'iPhone et avait découvert une faille et une faille technique dans cette technologie. Alors, quel est ce défaut et quelle a été la réponse d'Apple ?
Fonction d'analyse et de numérisation d'images CSAM
Un utilisateur de Reddit dit avoir découvert une version de l'algorithme NeuralHash utilisé pour détecter les images CSAM dans iOS 14.3.
La réponse d'Apple était : La version extraite n'est pas à jour et ne sera pas utilisée.
Le développeur connu sous le nom d'AsuharietYgvar a pu trouver le code NerualHash enfoui dans iOS 14.3 et a déclaré qu'il avait procédé à une ingénierie inverse du code et reconstruit un modèle de travail en Python pouvant être testé en transmettant des images de ces codes.
Le développeur affirme que cet algorithme n'est pas dupe de la compression ou du redimensionnement de l'image, mais il ne peut pas détecter le processus de recadrage ou de rotation de l'image. En utilisant le langage Python, les utilisateurs de la plate-forme GitHub ont commencé à examiner comment l'algorithme fonctionne et s'il peut être mal utilisé et exploité d'une manière qui menace les propriétaires d'iPhone. , ainsi, en théorie, un pirate informatique pourrait envoyer ces photos très naturelles comme fond d'écran de votre appareil ou comme paysage normal aux utilisateurs d'Apple pour essayer d'exécuter l'algorithme, les piéger et leur causer des problèmes.
Pas la version finale
Malgré ces défauts, on peut dire que l'algorithme découvert n'est pas la version finale, car Apple construit l'algorithme de détection d'images CSAM depuis des années, il est donc censé y avoir des versions du code à tester.
Quant à la possibilité de créer de fausses photos et de les envoyer aux utilisateurs d'iPhone pour les piéger, ce n'est pas si simple, car Apple ne révèle les photos que si elles sont synchronisées avec le cloud et n'oubliez pas l'examen humain pour s'assurer que les photos contiennent réellement des abus sur les enfants, tout cela signifie que l'attaque est supposée vraie en théorie mais difficile dans la pratique.
Apple a répondu
Apple a déclaré dans un communiqué que le code NeuralHash découvert dans iOS 14.3 n'était pas la version finale, personne n'a encore découvert l'existence d'une base de données CSAM ou d'un algorithme correspondant dans la version bêta d'iOS 15, mais la fonctionnalité devrait être lancée dans sa version complète après l'apparition du système Nouveau lancement iOS 15.
Source:
Ils m'arrêtent pour avoir mangé des enfants parce que mon téléphone portable est plein de vidéos et je joue avec mes enfants comme si je les mangeais hahahaha
Apple n'a toujours rien dit sur la notification et l'indemnisation des utilisateurs dont les photos ont été soumises à un examen humain et prouvées innocentes.
Apple les dédommagera-t-il pour avoir violé leur vie privée en montrant aux employés d'Apple leurs photos privées ?
Bien sûr, il sera utilisé pour rechercher d'autres choses et à notre insu, et les pays peuvent l'utiliser pour rechercher autre chose.
Apple n'est pas un ange, et en fin de compte c'est une entreprise exploiteuse qui ne s'intéresse qu'à la collecte de fonds
Merci pour vos efforts et votre intérêt