Afin de lutter contre les abus sexuels sur les enfants, Apple a l'intention d'installer un programme sur les iPhones américains pour rechercher des images illégales, en particulier celles qui incluent la maltraitance ou l'exploitation des enfants. Cependant, de nombreux experts pensent que cela peut présenter un risque pour la vie privée des utilisateurs, car s'ils Cela pourrait ouvrir la porte à la surveillance de millions d'appareils pour les utilisateurs du monde entier.

Apple envisage de scanner les iPhones américains à la recherche d'images d'abus d'enfants


Le nouveau système d'Apple

قامت شركة أبل بتفصيل نظامها المقترح والذي أطلقت عليه اسم نيورال ماتش ” neuralMatch” لبعض الأكاديميين الأمريكيين في وقت سابق من هذا الأسبوع، ووفقًا لاثنين من الباحثين الأمنيين الذين تم اطلاعهم على الاجتماع الافتراضي، من المتوقع أن يتم تنفيذ برنامج أبل على نطاق أوسع في أقرب وقت Cette semaine.

NeuralMatch est un système automatisé qui alertera de manière proactive une équipe de réviseurs humains s'ils pensent que des images illégales ont été détectées, après quoi les réviseurs contacteront les forces de l'ordre et signaleront le propriétaire de l'appareil.


Apple et les forces de l'ordre

Les tensions entre les entreprises technologiques telles qu'Apple et Facebook, qui ont préconisé leur utilisation accrue du cryptage dans leurs produits et services, et les forces de l'ordre, ont couvé depuis qu'Apple a refusé d'aider le FBI en 2016 avec l'accès à l'iPhone d'un suspect dans un fusillade à San Bernardino, Californie.

Dans un effort pour satisfaire toutes les parties, qu'il s'agisse d'utilisateurs ou d'autorités, Apple a annoncé son nouveau système Neural Match, qui est un compromis entre sa promesse de protéger la vie privée des clients et les demandes persistantes des gouvernements et des forces de l'ordre pour plus d'assistance dans les enquêtes criminelles, y compris le terrorisme. et la pédopornographie.


Comment fonctionne la correspondance neuronale ?

L'algorithme NeuralMatch analysera en continu les photos stockées sur l'iPhone d'un utilisateur américain et téléchargées sur le système de sauvegarde iCloud. Images connues d'abus sexuels sur des enfants.

Apple a formé le système sur environ 200000 XNUMX images d'agressions sexuelles collectées par le National Center for Missing and Exploited Children des États-Unis.

Selon les personnes qui ont été informées des plans, chaque photo téléchargée sur iCloud aux États-Unis recevra un "bon de sécurité" indiquant si elle est suspecte ou non, et une fois qu'un certain nombre de photos sont marquées comme suspectes, cela permettra Apple pour décrypter toutes les photos. Les photos suspectes, et si illégales, seront immédiatement signalées aux autorités.


Apple et confidentialité

Apple peut penser que la vie privée est un droit pour chaque utilisateur, et malgré ses bonnes intentions sur la question de l'exploitation et de la maltraitance des enfants, de nombreux experts en sécurité craignent qu'Apple ne risque de permettre aux gouvernements du monde entier de demander l'accès aux données personnelles de leurs citoyens, ce qui peut aller au-delà de son objectif l'original.

"C'est une idée absolument horrible, car elle conduirait à une surveillance de masse, car le système d'Apple pourrait être manipulé pour rechercher d'autres images et textes ciblés, et plus important encore, l'idée d'Apple augmenterait la pression sur d'autres entreprises technologiques pour qu'elles utilisent des technologies similaires. " explique Ross Anderson, professeur d'ingénierie de la sécurité à l'Université de Cambridge. .

Alec Moffitt, chercheur en sécurité et militant pour la protection de la vie privée qui travaillait auparavant chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "complètement inattendue et un recul important en matière de confidentialité".

Matthew Green, professeur de sécurité à l'Université Johns Hopkins, qui serait le premier chercheur à tweeter sur la question, pense également que ce qu'a fait Apple brisera le barrage car les gouvernements feront pression sur d'autres entreprises pour qu'elles fassent de même.

Alan Woodward, professeur de sécurité informatique à l'Université de Surrey, a déclaré : « Le système d'Apple est moins invasif, car l'analyse est effectuée par téléphone et les autorités sont averties s'il y a une correspondance, et cette approche décentralisée est la meilleure façon de vous peut adopter pour préserver la vie privée.

De votre point de vue, pensez-vous que ce qu'Apple a fait est juste ou viole-t-il la vie privée, dites-le nous dans les commentaires

Source:

Financial Times

Articles connexes