Aby walczyć z wykorzystywaniem seksualnym dzieci, Apple zamierza zainstalować na amerykańskich iPhone'ach program do wyszukiwania nielegalnych obrazów, w szczególności obejmujących wykorzystywanie lub wykorzystywanie dzieci, jednak wielu ekspertów uważa, że ​​może to stanowić zagrożenie dla prywatności użytkowników, ponieważ jeśli czy Może to otworzyć drzwi do monitorowania milionów urządzeń dla użytkowników na całym świecie.

Apple planuje przeskanować amerykańskie iPhone'y pod kątem obrazów przedstawiających wykorzystywanie dzieci


Nowy system Apple

Apple szczegółowo przedstawił proponowany system, który nazwał „neuralMatch” niektórym amerykańskim naukowcom na początku tego tygodnia, a według dwóch badaczy bezpieczeństwa poinformowanych na wirtualnym spotkaniu oczekuje się, że program Apple zostanie wdrożony szerzej tak szybko, jak to możliwe.

NeuralMatch to zautomatyzowany system, który będzie proaktywnie ostrzegać zespół recenzentów, jeśli uważają, że wykryto nielegalne obrazy, po czym recenzenci skontaktują się z organami ścigania i zgłoszą właściciela urządzenia.


Apple i organy ścigania

Wzrosły napięcia między firmami technologicznymi, takimi jak Apple i Facebook, które opowiadają się za częstszym stosowaniem szyfrowania w swoich produktach i usługach, a organami ścigania, ponieważ Apple odmówił pomocy FBI w 2016 r. w dostępie do iPhone'a podejrzanego o strzelaninę szaleństwo San Bernardino w Kalifornii.

Starając się usatysfakcjonować wszystkie strony, zarówno użytkowników, jak i władze, Apple ogłosił nowy system Neural Match, który jest kompromisem między obietnicą ochrony prywatności klientów a uporczywymi żądaniami ze strony rządów i organów ścigania o dalszą pomoc w śledztwach kryminalnych, w tym dotyczących terroryzmu. i pornografii dziecięcej.


Jak działa dopasowanie neuronowe?

Algorytm NeuralMatch będzie stale skanować zdjęcia przechowywane na iPhonie amerykańskiego użytkownika i przesyłane do systemu kopii zapasowych iCloud. Znane obrazy wykorzystywania seksualnego dzieci.

Apple przeszkoliło system na podstawie około 200000 XNUMX zdjęć dotyczących napaści na tle seksualnym zebranych przez amerykańskie Narodowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych.

Według osób poinformowanych o planach, każde zdjęcie przesłane do iCloud w USA otrzyma „bon bezpieczeństwa” stwierdzający, czy jest podejrzane, czy nie.Podejrzane, a jeśli jest nielegalne, zostanie natychmiast zgłoszone władzom.


Apple i prywatność

Apple może uważać, że prywatność jest prawem każdego użytkownika i pomimo dobrych intencji w kwestii wykorzystywania i wykorzystywania dzieci, wielu ekspertów ds. bezpieczeństwa obawia się, że Apple może ryzykować umożliwienie rządom na całym świecie dostępu do danych osobowych ich obywateli, co może wyjść poza swój cel oryginału.

„To absolutnie przerażający pomysł, ponieważ doprowadziłby do masowej inwigilacji, ponieważ system Apple mógłby zostać zmanipulowany w celu wyszukania innych docelowych obrazów i tekstu, a co najważniejsze, pomysł Apple zwiększyłby presję na inne firmy technologiczne, aby korzystały z podobnych technologii” mówi Ross Anderson, profesor inżynierii bezpieczeństwa na Uniwersytecie Cambridge.

Alec Moffitt, badacz bezpieczeństwa i aktywista zajmujący się prywatnością, który wcześniej pracował w Facebooku i Deliveroo, powiedział, że posunięcie Apple było „całkowicie nieoczekiwane i stanowiło znaczące odstępstwo od prywatności”.

Matthew Green, profesor bezpieczeństwa na Uniwersytecie Johnsa Hopkinsa, uważany za pierwszego badacza, który napisał na Twitterze w tej sprawie, również uważa, że ​​to, co zrobił Apple, przełamie tamę, ponieważ rządy będą naciskać na inne firmy, aby zrobiły to samo.

Alan Woodward, profesor bezpieczeństwa komputerowego na Uniwersytecie Surrey, powiedział: „System Apple jest mniej inwazyjny, ponieważ skanowanie odbywa się przez telefon, a władze są powiadamiane, jeśli istnieje dopasowanie, a to zdecentralizowane podejście jest najlepszym sposobem na może przyjąć, aby zachować prywatność”.

Z Twojego punktu widzenia, czy uważasz, że to, co zrobił Apple, jest słuszne, czy narusza prywatność, powiedz nam w komentarzach?

Źródło:

Financial Times

Powiązane artykuły