Apple prévoyait d'inclure la technologie de filtrage CSAM dans iOS 15, mais a dû retarder indéfiniment le lancement de la fonctionnalité en raison d'une forte pression et d'un contrecoup contre CSAM qui a contraint la société à suspendre ses plans. calmer l'atmosphère jusqu'à l'apparition d'un nouveau rapport qui renverse complètement la fonctionnalité, et peut-être qu'Apple recevrait et oublierait de fournir son avantage.


technique dangereuse

Dans un nouveau rapport, un groupe influent de 14 chercheurs en sécurité de renommée internationale a déclaré que de tels schémas (c'est-à-dire CSS ou analyse côté client) sont une technologie dangereuse qui étend les pouvoirs de surveillance du gouvernement. Ce serait plus une atteinte à la vie privée qu'autre chose qui a été proposé d'affaiblir le processus de cryptage.Au lieu de lire le contenu des communications cryptées, la nouvelle fonctionnalité d'Apple donne aux forces de l'ordre la possibilité de rechercher à distance non seulement les communications, mais aussi les informations stockées sur les appareils des utilisateurs.

Ces voix rejoignent des voix similaires, notamment des militants des libertés civiles, des défenseurs de la vie privée et des critiques de l'industrie technologique, qui ont déjà averti que ce genre de caractéristiques menace les droits humains fondamentaux.

Bien que le système annoncé par Apple ait semblé bien intentionné, son utilisation pour vérifier ce qu'il y a à l'intérieur de l'appareil par rapport aux bases de données d'images sous forme de données de hachage numérique en a alarmé beaucoup. Après tout, si l'appareil pouvait être scanné pour une chose, le processus pourrait facilement être étendu afin de rechercher d'autres choses.Le domaine de la cybersécurité étudiait des propositions de ce type avant qu'Apple n'annonce sa fonctionnalité CSAM.


L'Union européenne envisage d'utiliser la fonctionnalité Apple

Les chercheurs disent qu'ils ont commencé à rechercher cette technologie CSS avant qu'Apple ne l'annonce en réponse aux mesures prises par les dirigeants de l'UE pour insister sur un tel système. CSAM comprend également la recherche de preuves de crime organisé et d'activités terroristes, mais il existe un problème autre que la confidentialité que ce qui est vu dans certains pays, car le comportement normal est criminalisé dans d'autres. De plus, si Apple est obligé d'activer sa nouvelle fonctionnalité par l'Union européenne pour rechercher d'autres choses et non des abus d'enfants, les images ne pourront pas résister et finiront par céder et faire comme elles sont demandés.

Remarque : saviez-vous que tout le monde veut surveiller tous les crimes, à l'exception d'un crime, à savoir la fraude et l'évasion fiscale


Avertissements d'experts

Un gros problème sur lequel les chercheurs ont récemment mis en garde est que le plan permet d'effacer les appareils d'une personne sans aucune cause potentielle d'illégalité. C'est très dangereux, a déclaré Susan Landau, professeur de cybersécurité et de politique à l'Université Tufts. Cela représente un risque pour les entreprises, la sécurité nationale, la sécurité publique et la vie privée », tandis que Ross Anderson, professeur d'ingénierie de la sécurité à l'Université de Cambridge, a déclaré que « l'expansion des pouvoirs de surveillance de l'État franchit déjà les lignes rouges ».


la boite de Pandore

Les experts ont averti que ces capacités de surveillance et de contrôle peuvent être utilisées à mauvais escient par les concurrents, les agences gouvernementales et même par les criminels et les pirates informatiques, et au sein des employés qui les mettent en œuvre, et l'opacité des systèmes d'exploitation mobiles rend difficile la vérification que le système d'analyse fonctionnera. cibler uniquement du matériel dont l'illégalité est incontestable.

Enfin, une fois qu'un tel système est en place, ce n'est qu'une question de temps jusqu'à ce que des entités criminelles trouvent comment le saper ou l'étendre pour découvrir des données personnelles ou commerciales précieuses ou introduire de faux positifs contre certaines personnes. que nous ne voulons pas apparaîtra.

Que pensez-vous de la fonctionnalité permettant d'analyser les appareils des utilisateurs et de ce qui pourrait arriver lorsqu'elle tombe entre de mauvaises mains, dites-nous dans les commentaires

Source:

L'Université de Columbia

Articles connexes