Apple dovrebbe lanciare la sua funzione Nuovo CSAM per la sicurezza dei bambini Entro la fine dell'anno, in particolare con il lancio di iOS 15, ma uno degli sviluppatori ha affermato di aver trovato l'algoritmo attraverso il quale la funzione funziona nelle versioni precedenti del sistema operativo iPhone e ha scoperto un difetto e un difetto tecnico in questa tecnologia. Quindi qual è questo difetto e qual è stata la risposta di Apple?

È stato scoperto un difetto nella tecnologia anti-abuso sui minori di Apple e Apple risponde


Funzione di analisi e scansione delle immagini CSAM

Un utente di Reddit afferma di aver scoperto una versione dell'algoritmo NeuralHash utilizzato per rilevare le immagini CSAM all'interno di iOS 14.3.

La risposta di Apple è stata: la versione estratta non è aggiornata e non verrà utilizzata.

Lo sviluppatore noto come AsuharietYgvar è stato in grado di trovare il codice NerualHash sepolto all'interno di iOS 14.3 e ha affermato di aver decodificato il codice e ricostruito un modello funzionante in Python che può essere testato passando immagini di questi codici.

Lo sviluppatore afferma che questo algoritmo non viene ingannato dalla compressione o dal ridimensionamento dell'immagine, ma non è in grado di rilevare il processo di ritaglio o rotazione dell'immagine. Utilizzando il linguaggio di Python, gli utenti della piattaforma GitHub hanno iniziato a esaminare come funziona l'algoritmo e se può essere utilizzato in modo improprio e sfruttato in modo tale da minacciare i possessori di iPhone.Foto abusata e completamente innocente ma inganna i codici Apple e produce una corrispondenza con i codici CSAM , quindi in teoria un hacker potrebbe inviare queste foto dall'aspetto molto naturale come sfondo del dispositivo o un normale paesaggio agli utenti Apple per provare a eseguire l'algoritmo e intrappolarli e causare loro problemi.


Non la versione finale

Nonostante queste carenze, si può dire che l'algoritmo scoperto non è la versione finale poiché Apple ha creato l'algoritmo di rilevamento dell'immagine CSAM per anni, quindi dovrebbero esserci alcune versioni del codice per i test.

Per quanto riguarda la possibilità di creare foto false e inviarle agli utenti iPhone per intrappolarle, non è così semplice, perché Apple non rivela le foto a meno che non siano sincronizzate con il cloud e non dimenticare la revisione umana per garantire che le foto in realtà contengono abusi sui minori, tutto ciò significa che l'attacco che si presume sia vero in teoria ma difficile in pratica.


Apple ha risposto

Apple ha dichiarato in una dichiarazione che il codice NeuralHash scoperto in iOS 14.3 non è la versione finale, inoltre nessuno ha ancora scoperto l'esistenza di un database CSAM o di un algoritmo di corrispondenza nella versione beta di iOS 15, ma la funzione dovrebbe essere lanciata in la sua versione completa dopo la comparsa del sistema Nuovo lancio iOS 15.

Cosa ne pensi della nuova funzione di sicurezza dei bambini di Apple e c'è il timore che possa essere utilizzata in modo improprio, dicci nei commenti

Fonte:

vice

Articoli correlati