Per combattere gli abusi sessuali su minori, Apple intende installare sugli iPhone statunitensi un programma per la ricerca di immagini illegali, in particolare che includano abusi o sfruttamento di minori, tuttavia, molti esperti ritengono che ciò possa costituire una minaccia per la privacy degli utenti perché se fa Questo potrebbe aprire la porta al monitoraggio di milioni di dispositivi per gli utenti di tutto il mondo.

Apple prevede di scansionare gli iPhone statunitensi alla ricerca di immagini di abusi sui minori


Il nuovo sistema di Apple

Apple ha dettagliato il suo sistema proposto, che ha chiamato "neuralMatch" ad alcuni accademici americani all'inizio di questa settimana, e secondo due ricercatori di sicurezza informati sull'incontro virtuale, il programma di Apple dovrebbe essere implementato più ampiamente il prima possibile questa settimana.

NeuralMatch è un sistema automatizzato che avviserà in modo proattivo un team di revisori umani se ritengono che siano state rilevate immagini illegali, dopodiché i revisori contatteranno le forze dell'ordine e segnaleranno il proprietario del dispositivo.


Apple e le forze dell'ordine

Le tensioni tra aziende tecnologiche come Apple e Facebook, che hanno sostenuto il loro maggiore utilizzo della crittografia nei loro prodotti e servizi, e le forze dell'ordine, sono diminuite da quando Apple ha rifiutato di aiutare l'FBI nel 2016 con l'accesso all'iPhone di un sospetto in un furia di sparatorie San Bernardino, California.

Nel tentativo di soddisfare tutte le parti, sia utenti che autorità, Apple ha annunciato il suo nuovo sistema Neural Match, che è un compromesso tra la sua promessa di proteggere la privacy dei clienti e le persistenti richieste da parte di governi e forze dell'ordine di maggiore assistenza nelle indagini penali, incluso il terrorismo e pedopornografia.


Come funziona la corrispondenza neurale?

L'algoritmo NeuralMatch scansiona continuamente le foto archiviate sull'iPhone di un utente americano e le carica sul sistema di backup iCloud.Immagini note di abusi sessuali su minori.

Apple ha addestrato il sistema su circa 200000 immagini di aggressioni sessuali raccolte dal National Center for Missing and Exploited Children statunitense senza scopo di lucro.

Secondo le persone informate sui piani, ogni foto caricata su iCloud negli Stati Uniti riceverà un "voucher di sicurezza" che indica se è sospetta o meno. Sospette e se illegali verranno immediatamente segnalate alle autorità.


Apple e la privacy

Apple potrebbe credere che la privacy sia un diritto di ogni utente e, nonostante le sue buone intenzioni sulla questione dello sfruttamento e degli abusi sui minori, molti esperti di sicurezza temono che Apple possa rischiare di consentire ai governi di tutto il mondo di accedere ai dati personali dei propri cittadini, il che potrebbe andare oltre il suo obiettivo originale.

"È un'idea assolutamente orribile, perché porterebbe alla sorveglianza di massa, perché il sistema di Apple potrebbe essere manipolato per cercare qualsiasi altra immagine e testo mirato e, cosa più importante, l'idea di Apple aumenterebbe la pressione su altre aziende tecnologiche affinché utilizzino tecnologie simili". afferma Ross Anderson, professore di ingegneria della sicurezza all'Università di Cambridge. .

Alec Moffitt, un ricercatore di sicurezza e attivista per la privacy che in precedenza ha lavorato presso Facebook e Deliveroo, ha affermato che la mossa di Apple è stata "completamente inaspettata e un significativo arretramento della privacy".

Matthew Green, professore di sicurezza presso la Johns Hopkins University, che si ritiene sia stato il primo ricercatore a twittare sulla questione, crede anche che ciò che Apple ha fatto romperà la diga perché i governi faranno pressione sulle altre aziende affinché facciano lo stesso.

Alan Woodward, professore di sicurezza informatica presso l'Università del Surrey, ha dichiarato: "Il sistema Apple è meno invasivo, poiché la scansione viene eseguita sul telefono e le autorità vengono informate se c'è una corrispondenza, e questo approccio decentralizzato è il migliore modo che puoi adottare per preservare la privacy”.

Dal tuo punto di vista, pensi che ciò che ha fatto Apple sia giusto o stia violando la privacy, diccelo nei commenti

Fonte:

Financial Times

Articoli correlati