Para combater o abuso sexual infantil, a Apple pretende instalar um programa nos iPhones dos Estados Unidos para procurar imagens ilegais, especificamente que incluam abuso ou exploração infantil, no entanto, muitos especialistas acreditam que isso pode representar um risco para a privacidade dos usuários, porque se o fizerem Isso pode abrir a porta para o monitoramento de milhões de dispositivos para usuários em todo o mundo.

A Apple planeja escanear iPhones dos EUA em busca de imagens de abuso infantil


Novo sistema da Apple

A Apple detalhou seu sistema proposto, que chamou de "neuralMatch" para alguns acadêmicos americanos no início desta semana, e de acordo com dois pesquisadores de segurança informados na reunião virtual, o programa da Apple deve ser implementado mais amplamente o mais rápido possível.

O NeuralMatch é um sistema automatizado que alertará proativamente uma equipe de revisores humanos se eles acreditarem que imagens ilegais foram detectadas, após o que os revisores entrarão em contato com as autoridades e denunciarão o proprietário do dispositivo.


Apple e agências de aplicação da lei

As tensões entre empresas de tecnologia como a Apple e o Facebook, que defendem o aumento do uso de criptografia em seus produtos e serviços, e as agências de aplicação da lei, aumentaram desde que a Apple se recusou a ajudar o FBI em 2016 com acesso ao iPhone de um suspeito em um tiroteio em San Bernardino, Califórnia.

Em um esforço para satisfazer todas as partes, sejam usuários ou autoridades, a Apple anunciou seu novo sistema Neural Match, que é um compromisso entre sua promessa de proteger a privacidade do cliente e demandas persistentes de governos e agências de aplicação da lei por mais assistência em investigações criminais, incluindo terrorismo e pornografia infantil.


Como funciona a correspondência neural?

O algoritmo NeuralMatch examinará continuamente as fotos armazenadas no iPhone de um usuário americano e carregadas no sistema de backup do iCloud Imagens conhecidas de abuso sexual infantil.

A Apple treinou o sistema em cerca de 200000 imagens de agressão sexual coletadas pelo Centro Nacional para Crianças Desaparecidas e Exploradas, sem fins lucrativos dos Estados Unidos.

De acordo com pessoas que foram informadas sobre os planos, todas as fotos carregadas no iCloud nos EUA receberão um "voucher de segurança" que diz se é suspeito ou não, e assim que um certo número de fotos forem marcadas como suspeitas, ele permitirá A Apple deve descriptografar todas as fotos. Suspeito, e se ilegal, será relatado às autoridades imediatamente.


Apple e privacidade

A Apple pode acreditar que a privacidade é um direito de todos os usuários e, apesar de suas boas intenções na questão da exploração e abuso infantil, muitos especialistas em segurança temem que a Apple possa arriscar permitir que governos em todo o mundo busquem acesso aos dados pessoais de seus cidadãos, o que pode vá além de seu objetivo o original.

“É uma ideia absolutamente horrível, porque levaria à vigilância em massa, porque o sistema da Apple poderia ser manipulado para procurar outras imagens e textos direcionados e, o mais importante, a ideia da Apple aumentaria a pressão sobre outras empresas de tecnologia para usar tecnologias semelhantes”. diz Ross Anderson, professor de engenharia de segurança da Universidade de Cambridge.

Alec Moffitt, pesquisador de segurança e ativista de privacidade que já trabalhou no Facebook e no Deliveroo, disse que a mudança da Apple foi "completamente inesperada e um retrocesso significativo na privacidade".

Matthew Green, professor de segurança da Universidade Johns Hopkins, que se acredita ser o primeiro pesquisador a tweetar sobre o assunto, também acredita que o que a Apple fez vai quebrar a barragem porque os governos vão pressionar outras empresas a fazer o mesmo.

Alan Woodward, professor de segurança computacional da Universidade de Surrey, disse: “O sistema da Apple é menos invasivo, pois a varredura é feita no telefone e as autoridades são notificadas se houver uma correspondência, e essa abordagem descentralizada é a melhor maneira de você pode adotar para preservar a privacidade. ”

Do seu ponto de vista, você acha que o que a Apple fez é certo ou está violando a privacidade, diga-nos nos comentários

Fonte:

Financial Times

Artigos relacionados