A Apple deve lançar seu recurso Novo CSAM de segurança infantil Ainda este ano, especificamente com o lançamento do iOS 15, mas um dos desenvolvedores disse ter encontrado o algoritmo pelo qual o recurso funciona em versões mais antigas do sistema operacional do iPhone e descobriu uma falha e uma falha técnica nesta tecnologia. Então, qual é esse defeito e qual foi a resposta da Apple?

Uma falha foi descoberta na tecnologia anti-abuso infantil da Apple, e a Apple responde


Análise de imagem CSAM e recurso de digitalização

Um usuário do Reddit diz que descobriu uma versão do algoritmo NeuralHash usado para detectar imagens CSAM no iOS 14.3.

A resposta da Apple foi: A versão extraída não está atualizada e não será usada.

O desenvolvedor conhecido como AsuharietYgvar foi capaz de encontrar o código NerualHash enterrado no iOS 14.3 e disse que fez a engenharia reversa do código e reconstruiu um modelo funcional em Python que pode ser testado passando imagens desses códigos.

O desenvolvedor afirma que este algoritmo não se deixa enganar pela compressão ou redimensionamento da imagem, mas não pode detectar o processo de recorte ou rotação da imagem. Usando a linguagem Python, os usuários da plataforma GitHub começaram a examinar como o algoritmo funciona e se ele pode ser mal utilizado e explorado de uma forma que ameaça os proprietários de iPhone. Foto abusada e completamente inocente, mas engana os códigos da Apple e produz uma correspondência com os códigos CSAM , portanto, em teoria, um hacker poderia enviar essas fotos de aparência muito natural como o papel de parede do seu dispositivo ou uma paisagem normal para usuários da Apple para tentar executar o algoritmo e interceptá-los e causar-lhes problemas.


Não é a versão final

Apesar dessas deficiências, pode-se dizer que o algoritmo descoberto não é a versão final, já que a Apple vem construindo o algoritmo de detecção de imagem CSAM há anos, portanto, deve haver algumas versões do código para teste.

Quanto à possibilidade de criar fotos falsas e enviá-las aos usuários do iPhone para prendê-las, não é tão simples, pois a Apple não revela as fotos a menos que estejam sincronizadas com a nuvem e não se esqueça da revisão humana para garantir que as fotos realmente conter abuso infantil, tudo isso significa que o ataque é considerado verdadeiro na teoria, mas difícil na prática.


Apple respondeu

A Apple disse em um comunicado que o código NeuralHash descoberto no iOS 14.3 não é a versão final, também ninguém descobriu a existência de um banco de dados CSAM ou algoritmo de correspondência na versão beta do iOS 15 ainda, mas o recurso deve ser lançado em sua versão completa após o aparecimento do sistema Novo lançamento iOS 15.

O que você acha do novo recurso de segurança infantil da Apple e se ele pode ser mal utilizado, diga-nos nos comentários

Fonte:

vício

Artigos relacionados