Apple은 기능을 출시할 것으로 예상됩니다. 새로운 아동 안전 CSAM 올해 말, 특히 iOS 15 출시와 함께 개발자 중 한 명이 이전 버전의 iPhone 운영 체제에서 기능이 작동하는 알고리즘을 발견하고 이 기술의 결함과 기술적 결함을 발견했다고 말했습니다. 그렇다면 이 결함은 무엇이며 Apple의 대응은 무엇이었습니까?

Apple의 아동 학대 방지 기술에서 결함이 발견되었으며 Apple이 대응합니다.


CSAM 이미지 분석 및 스캐닝 기능

Reddit 사용자는 iOS 14.3 내에서 CSAM 이미지를 감지하는 데 사용되는 NeuralHash 알고리즘 버전을 발견했다고 말했습니다.

Apple의 응답은 다음과 같습니다. 추출된 버전은 최신 버전이 아니며 사용되지 않습니다.

AsuharietYgvar로 알려진 개발자는 iOS 14.3에 묻혀 있는 NeuralHash 코드를 찾을 수 있었고 코드를 리버스 엔지니어링하고 이 코드의 이미지를 전달하여 테스트할 수 있는 작업 모델을 Python으로 재구성했다고 말했습니다.

개발자는 이 알고리즘이 이미지 압축이나 크기 조정에 속지 않는다고 주장하지만 이미지를 자르거나 회전하는 과정을 감지할 수는 없습니다. GitHub 플랫폼의 사용자는 Python 언어를 사용하여 알고리즘이 작동하는 방식과 iPhone 소유자를 위협하는 방식으로 오용 및 악용될 수 있는지 여부를 조사하기 시작했습니다. , 따라서 이론상 해커는 이러한 매우 자연스럽게 보이는 사진을 장치 배경 화면이나 일반적인 풍경으로 Apple 사용자에게 보내 알고리즘을 실행하고 문제를 일으키려고 할 수 있습니다.


최종 버전이 아닙니다.

이러한 단점에도 불구하고 Apple이 수년간 CSAM 이미지 감지 알고리즘을 구축해왔기 때문에 발견된 알고리즘이 최종 버전이 아니라고 할 수 있으므로 테스트용 코드의 일부 버전이 있어야 합니다.

가짜 사진을 만들어 iPhone 사용자에게 보낼 가능성에 관해서는 Apple이 클라우드와 동기화되지 않는 한 사진을 공개하지 않고 사진을 확인하기 위해 사람의 검토를 잊지 않기 때문에 그렇게 간단하지 않습니다. 실제로 아동학대를 포함하고 있는 이 모든 것은 이론상 사실인 것처럼 보이지만 실제로는 어려운 공격을 의미합니다.


애플은 응답했다

Apple은 성명서에서 iOS 14.3에서 발견된 NeuralHash 코드가 최종 버전이 아니며, 아직 iOS 15 베타 버전에서 CSAM 데이터베이스나 일치 알고리즘의 존재를 발견한 사람은 없지만 이 기능은 시스템 새로운 출시 iOS 15의 등장 후 정식 버전.

Apple의 새로운 어린이 안전 기능에 대해 어떻게 생각하십니까? 오용될 수 있다는 두려움이 있으신가요? 댓글로 알려주세요.

한국어 :

바이스

관련 기사