Negli ultimi giorni, Apple è stata sotto i riflettori con molte critiche dovute a Funzione di scansione delle immagini Con i suoi dispositivi, che ha lanciato per proteggere i bambini e prevenire abusi o sfruttamento di loro, o le cosiddette immagini CSAM, e molte organizzazioni per la privacy e persino esperti hanno espresso preoccupazione per la trasformazione di questa funzione in una scappatoia che gli hacker o persino i governi può sfruttare per violare la privacy degli utenti iPhone, e al fine di rimuovere qualsiasi confusione o chiarire e spiegare le cose correttamente.Apple ha lanciato un file sotto forma di FAQ che spiega tutto sulla sua nuova funzionalità e cosa sta accadendo dietro le quinte, e andiamo scopri tutto sulla funzione di sicurezza dei bambini e se minaccia davvero la privacy degli utenti o meno.

Apple risponde alle accuse di violazione della privacy nella funzione contro lo sfruttamento minorile


Qual è la differenza tra Message Protection e CSAM in iCloud Photos?

Queste due funzionalità sono diverse e non utilizzano la stessa tecnologia in quanto Communication Security in Messages è progettata per fornire a genitori e figli strumenti aggiuntivi per proteggere i propri figli dall'invio e dalla ricezione di immagini sessualmente esplicite nell'app Messaggi. Funziona solo sulle foto inviate o ricevute nell'app Messaggi per gli account dei bambini configurata con Family Sharing e quindi analizza le foto sul dispositivo e quindi non espone la privacy dei messaggi.Utile e rassicurante che va bene se lo fa' t desidera visualizzare o inviare l'immagine e, come ulteriore precauzione, ai bambini piccoli può anche essere detto che per la loro sicurezza, i loro genitori riceveranno un messaggio se lo vedono.

La seconda funzione, Scansione foto CSAM in iCloud, è progettata per mantenere CSAM fuori da Foto di iCloud senza fornire informazioni ad Apple su foto diverse da quelle che corrispondono a foto CSAM note. Il possesso di immagini CSAM è illegale nella maggior parte dei paesi, compresi gli Stati Uniti. Inoltre, questa funzione riguarda solo gli utenti che hanno scelto di utilizzare Foto di iCloud per archiviare le proprie foto e non riguarda gli utenti che non hanno scelto di utilizzare Foto di iCloud. Non ci sono effetti su altri dati sul dispositivo e questa funzione non si applica ai messaggi.


Chi può utilizzare la sicurezza della connessione nei messaggi?

La sicurezza delle comunicazioni in Messaggi è disponibile solo per gli account configurati come famiglie in iCloud. I genitori o i tutori devono scegliere di abilitare la funzione per la famiglia e le notifiche ai genitori possono essere abilitate solo dai genitori o dai tutori degli account per bambini di età pari o inferiore a 12 anni.


Questo significa che i messaggi verranno condivisi con Apple o con le forze dell'ordine?

Ovviamente no, Apple non sarà mai in grado di accedere alle informazioni in Messaggi a causa di questa funzione in Messaggi. Questa funzione non condivide alcuna informazione con Apple, NCMEC o le forze dell'ordine. La funzione di sicurezza delle comunicazioni in Messaggi è separata dalla funzione CSAM per iCloud Photo Scan.


Questo interrompe la crittografia end-to-end nell'app Messaggi?

No. Ciò non comporta una violazione della privacy per i messaggi e Apple non sarà mai in grado di accedere ai tuoi contatti a causa di questa funzione. Qualsiasi utente dell'app Messaggi, inclusi quelli che hanno abilitato la sicurezza dei contatti, ha il controllo completo su cosa viene inviato e a chi.

 Se la funzione è abilitata per l'account di un bambino, il dispositivo valuterà le immagini nei messaggi e fornirà un intervento se un'immagine viene identificata come inappropriata.È inappropriata e Apple non può accedere ai messaggi, interferire con le notifiche o valutare le foto.


Questa funzione impedisce ai bambini abusati di chiedere aiuto?

La funzione di sicurezza della connessione si applica solo alle immagini sessualmente esplicite condivise o ricevute nei messaggi e non ha nulla a che fare con altre app che le vittime possono utilizzare per chiedere aiuto, inclusi i messaggi di testo Istruzioni su come cercare aiuto.


I genitori saranno avvisati senza avvisare i bambini e dare loro una scelta?

No. Oh no; Gli account genitore o tutore devono registrarsi per abilitare la sicurezza della comunicazione nei messaggi Le notifiche dei genitori sono abilitate per gli account di bambini di età pari o inferiore a 12 anni, ma prima di ciò, viene inviata o ricevuta qualsiasi immagine oscena o inappropriata, il bambino viene avvisato che se continuano per visualizzare o inviare l'immagine, verrà inviata una notifica ai genitori e se il bambino continua a inviare o visualizzare un'immagine dopo questo avviso, i genitori vengono avvisati Per gli account di bambini di età compresa tra 13 e 17 anni, il bambino viene comunque avvisato e gli viene chiesto se vorrebbero visualizzare o condividere una foto sessuale, ma i genitori non vengono avvisati.


Questo significa che Apple controllerà tutte le foto archiviate sul mio dispositivo?

Questa funzione si applica solo alle foto che l'utente sceglie di caricare su iCloud.La funzione non funziona con gli utenti che hanno disabilitato le foto di iCloud e non funziona nemmeno sulla libreria di foto sul tuo iPhone.


Le immagini CSAM vengono scaricate sul mio dispositivo in modo che corrispondano alle mie immagini?

No, le immagini CSAM non vengono archiviate o inviate al dispositivo. Invece di immagini reali, Apple utilizza hash illeggibili memorizzati sul dispositivo. Questi hash sono stringhe di numeri che rappresentano immagini CSAM note, ma non possono essere lette o convertite nuovamente in immagini irrilevanti. Questo set di hash delle immagini si basa su immagini ottenute e convalidate come CSAM dalle organizzazioni per la sicurezza dei bambini. Con le nuove applicazioni di crittografia, Apple può utilizzare questi hash per identificare solo gli account iCloud che archiviano lotti di foto che corrispondono a foto CSAM note e quindi essere in grado di identificare solo le foto dei bambini inappropriate senza riconoscere o vedere altre foto.


perché ora?

Una delle grandi sfide di Apple è aiutare a proteggere i bambini preservando la privacy degli utenti. Con la nuova funzionalità, Apple rileverà le foto CSAM archiviate in iCloud e l'azienda non apprenderà nulla sugli altri dati archiviati sul dispositivo.

Le tecnologie esistenti su cui si affidano altre aziende scansionano tutte le immagini degli utenti archiviate nel cloud. Ciò crea rischi per la privacy per gli utenti, ma è diverso con la funzione Scansione foto di Apple, ad esempio non essere in grado di riconoscere le foto a meno che non corrispondano a foto CSAM note e siano incluse in un account iCloud che include molte foto CSAM canoniche.


Il sistema di rilevamento delle immagini CSAM di iCloud può essere utilizzato per rilevare altre cose?

Apple ha detto che la progettazione del processo per evitare che ciò accada. Il rilevamento delle immagini CSAM è progettato per le immagini iCloud in modo che il sistema funzioni solo con gli hash delle immagini CSAM forniti da NCMEC e altre organizzazioni per la sicurezza dei bambini.

Questo set di hash delle immagini si basa su immagini ottenute e convalidate come CSAM dalle organizzazioni per la sicurezza dei bambini. Non esiste alcuna segnalazione automatica alle forze dell'ordine e Apple conduce una revisione umana prima di inviare la sua segnalazione al National Center for Missing and Exploited Children (NCMEC).

Di conseguenza, il sistema è progettato solo per segnalare foto note come CSAM in iCloud Photos. Nella maggior parte dei paesi, inclusi gli Stati Uniti, il possesso di queste immagini è un reato e Apple è obbligata a segnalare alle autorità competenti i casi di cui venissimo a conoscenza.


I governi possono costringere Apple ad aggiungere immagini non CSAM a un file di elenco hash?

Apple rifiuterà tali richieste. La funzionalità di rilevamento CSAM è progettata per rilevare solo le foto CSAM note archiviate in iCloud Photos che sono state identificate da esperti di NCMEC e altri gruppi per la sicurezza dei bambini.

Abbiamo già affrontato richieste di creare e pubblicare modifiche imposte dal governo che minano la privacy degli utenti e abbiamo fermamente rifiutato queste richieste. Continueremo a rifiutarlo in futuro. Per essere chiari, questa tecnologia è limitata al rilevamento di CSAM archiviato in iCloud e non approveremo alcuna richiesta del governo che possa coinvolgere altri file.

Inoltre, Apple conduce una revisione umana prima di inviare una segnalazione a NCMEC. Se il sistema contrassegna immagini che non corrispondono a immagini CSAM note, l'account non verrà disabilitato e nessun rapporto verrà inviato a NCMEC.


È possibile personalizzare CSAM per indirizzare altre cose o persone specifiche?

Il nostro processo è progettato per evitare che ciò accada. Gli hash delle immagini utilizzati per la corrispondenza sono presi da immagini CSAM note ed esistenti che sono state ottenute e convalidate da organizzazioni per la sicurezza dei bambini e lo stesso hash è memorizzato nel sistema operativo di ciascun utente iPhone e iPad, quindi gli attacchi mirati sono solo contro individui specifici Non abilitato dal nostro design e non vi è alcuna segnalazione automatica alle forze dell'ordine, Apple conduce una revisione umana prima di inviare la sua segnalazione e, nel caso in cui il sistema non sia in grado di contrassegnare immagini che non corrispondono a immagini CSAM note, l'account non sarà disabilitato e non verrà presentata alcuna segnalazione.


Le persone innocenti possono sbagliare a causa della funzione?

No, il sistema è progettato per essere estremamente accurato e la probabilità che il sistema segnali erroneamente un determinato account è inferiore a uno ogni trilione di account all'anno.Inoltre, ogni volta che un account viene segnalato dal sistema, Apple conduce una revisione umana prima di inviare la sua segnalazione a NCMEC e, di conseguenza, errori di sistema o attacchi non comporteranno la segnalazione di innocenti.

Cosa ne pensi della nuova funzionalità di Apple per rilevare immagini inappropriate per i bambini, diccelo nei commenti

Fonte:

mela

Articoli correlati