아동 성적 학대를 근절하기 위해 Apple은 특히 아동 학대 또는 착취가 포함된 불법 이미지를 검색하는 프로그램을 미국 iPhone에 설치하려고 합니다. 이를 통해 전 세계 사용자를 위해 수백만 대의 장치를 모니터링할 수 있습니다.

애플, 미국 아이폰에 아동학대 사진 스캔할 계획


애플의 새로운 시스템

Apple은 이번 주 초 일부 미국 학계에 "neuralMatch"라고 명명한 제안된 시스템에 대해 자세히 설명했으며 가상 회의에 대해 브리핑된 두 명의 보안 연구원에 따르면 Apple의 프로그램은 이번 주에 가능한 한 빨리 더 광범위하게 구현될 것으로 예상됩니다.

NeuralMatch는 불법 이미지가 감지되었다고 생각하는 경우 검토자 팀에 사전에 경고하는 자동화된 시스템입니다. 그 후 검토자는 법 집행 기관에 연락하여 기기 소유자를 보고합니다.


Apple 및 법 집행 기관

제품 및 서비스에서 암호화 사용 증가를 옹호하는 Apple 및 Facebook과 같은 기술 회사와 법 집행 기관 사이의 긴장은 2016년 Apple이 FBI에서 용의자의 iPhone 액세스를 지원하는 것을 거부한 이후 고조되었습니다. 총격 사건 캘리포니아 샌버나디노.

사용자 또는 당국에 관계없이 모든 당사자를 만족시키기 위한 노력의 일환으로 Apple은 고객 개인 정보를 보호하겠다는 약속과 테러를 포함한 범죄 수사에 더 많은 지원을 요구하는 정부 및 법 집행 기관의 지속적인 요구 사이의 절충안인 새로운 Neural Match 시스템을 발표했습니다. 그리고 아동 포르노그라피.


신경 일치는 어떻게 작동합니까?

NeuralMatch 알고리즘은 미국 사용자의 iPhone에 저장되어 iCloud 백업 시스템에 업로드된 사진을 지속적으로 스캔합니다.

Apple은 미국 비영리 국립 실종 착취 아동 센터(National Center for Missing and Exploited Children)에서 수집한 약 200000개의 성폭행 이미지에 대해 시스템을 훈련했습니다.

계획에 대해 브리핑을 받은 사람들에 따르면 미국에서 iCloud에 업로드되는 모든 사진에는 의심스러운지 여부를 알려주는 "보안 바우처"가 제공되며, 일정 수의 사진이 의심스러운 것으로 표시되면 활성화됩니다. Apple은 모든 사진을 해독합니다.의심되고 불법인 경우 당국에 즉시 보고됩니다.


Apple 및 개인 정보

Apple은 개인 정보가 모든 사용자의 권리라고 생각할 수 있으며, 아동 착취 및 학대 문제에 대한 좋은 의도에도 불구하고 많은 보안 전문가들은 Apple이 전 세계 정부가 시민의 개인 데이터에 액세스할 수 있는 위험을 초래할 수 있다고 우려합니다. 원래의 목표를 넘어서십시오.

"그것은 절대적으로 끔찍한 생각입니다. 왜냐하면 Apple의 시스템이 다른 표적 이미지와 텍스트를 찾도록 조작될 수 있고 가장 중요한 것은 Apple의 아이디어가 유사한 기술을 사용하도록 다른 기술 회사에 압력을 가할 것이기 때문입니다." 캠브리지 대학의 보안 공학 교수인 Ross Anderson은 말합니다.

이전에 Facebook과 Deliveroo에서 근무한 보안 연구원이자 개인 정보 보호 활동가인 Alec Moffitt는 Apple의 움직임이 "완전히 예상치 못한 것이며 개인 정보에 대한 심각한 퇴보"라고 말했습니다.

이 문제에 대해 트윗을 올린 최초의 연구원으로 알려진 존스 홉킨스 대학의 보안 교수 매튜 그린(Matthew Green)도 정부가 다른 기업에 압력을 가할 것이기 때문에 애플이 한 일이 댐을 깨뜨릴 것이라고 믿습니다.

University of Surrey의 컴퓨터 보안 교수인 Alan Woodward는 "Apple의 시스템은 전화로 스캔을 수행하고 일치하는 항목이 있으면 당국에 통보하기 때문에 덜 침습적이며 이러한 분산 접근 방식이 가장 좋은 방법입니다. 개인 정보 보호를 위해 채택할 수 있습니다."

귀하의 관점에서 Apple이 한 일이 옳았거나 개인 정보를 침해한다고 생각하십니까? 댓글로 알려주십시오.

한국어 :

파이낸셜 타임즈

관련 기사