A Apple deve lançar seu recurso Novo CSAM de segurança infantil Ainda este ano, especificamente com o lançamento do iOS 15, mas um dos desenvolvedores disse ter encontrado o algoritmo pelo qual o recurso funciona em versões mais antigas do sistema operacional do iPhone e descobriu uma falha e uma falha técnica nesta tecnologia. Então, qual é esse defeito e qual foi a resposta da Apple?
Análise de imagem CSAM e recurso de digitalização
Um usuário do Reddit diz que descobriu uma versão do algoritmo NeuralHash usado para detectar imagens CSAM no iOS 14.3.
A resposta da Apple foi: A versão extraída não está atualizada e não será usada.
O desenvolvedor conhecido como AsuharietYgvar foi capaz de encontrar o código NerualHash enterrado no iOS 14.3 e disse que fez a engenharia reversa do código e reconstruiu um modelo funcional em Python que pode ser testado passando imagens desses códigos.
O desenvolvedor afirma que este algoritmo não se deixa enganar pela compressão ou redimensionamento da imagem, mas não pode detectar o processo de recorte ou rotação da imagem. Usando a linguagem Python, os usuários da plataforma GitHub começaram a examinar como o algoritmo funciona e se ele pode ser mal utilizado e explorado de uma forma que ameaça os proprietários de iPhone. Foto abusada e completamente inocente, mas engana os códigos da Apple e produz uma correspondência com os códigos CSAM , portanto, em teoria, um hacker poderia enviar essas fotos de aparência muito natural como o papel de parede do seu dispositivo ou uma paisagem normal para usuários da Apple para tentar executar o algoritmo e interceptá-los e causar-lhes problemas.
Não é a versão final
Apesar dessas deficiências, pode-se dizer que o algoritmo descoberto não é a versão final, já que a Apple vem construindo o algoritmo de detecção de imagem CSAM há anos, portanto, deve haver algumas versões do código para teste.
Quanto à possibilidade de criar fotos falsas e enviá-las aos usuários do iPhone para prendê-las, não é tão simples, pois a Apple não revela as fotos a menos que estejam sincronizadas com a nuvem e não se esqueça da revisão humana para garantir que as fotos realmente conter abuso infantil, tudo isso significa que o ataque é considerado verdadeiro na teoria, mas difícil na prática.
Apple respondeu
A Apple disse em um comunicado que o código NeuralHash descoberto no iOS 14.3 não é a versão final, também ninguém descobriu a existência de um banco de dados CSAM ou algoritmo de correspondência na versão beta do iOS 15 ainda, mas o recurso deve ser lançado em sua versão completa após o aparecimento do sistema Novo lançamento iOS 15.
Fonte:
Eles me prendem por comer crianças porque meu celular está cheio de vídeos e estou brincando com meus filhos como se os estivesse comendo hahahaha
A Apple ainda não disse nada sobre notificar e compensar os usuários cujas fotos foram submetidas a análises humanas e provadas inocentes.
A Apple irá compensá-los por violar sua privacidade, mostrando aos funcionários da Apple suas fotos privadas?
Claro, ele será usado para pesquisar outras coisas e sem nosso conhecimento, e os países podem usá-lo para pesquisar qualquer outra coisa.
A Apple não é um anjo e, no final das contas, é uma empresa exploradora que só está interessada em arrecadar dinheiro
Obrigado pelo esforço e benefícios