지난 며칠 동안 Apple은 다음과 같은 이유로 많은 비판을 받았습니다. 이미지 스캔 기능 아동을 보호하고 아동의 학대나 착취를 방지하기 위해 출시한 장치 또는 CSAM 이미지로 알려진 많은 개인 정보 보호 기관과 전문가조차도 이 기능을 해커 또는 정부가 악용할 수 있는 허점으로 전환하는 것에 대해 우려를 표명했습니다. iPhone 사용자의 개인 정보를 침해하고 혼란을 제거하거나 정확하게 설명하고 설명하기 위해 Apple은 새로운 기능에 대한 모든 내용과 장면 뒤에서 일어나는 일을 설명하는 FAQ 형식의 파일을 출시했습니다. 어린이 안전 기능과 그것이 사용자의 개인 정보를 실제로 위협하는지 여부에 대해.


iCloud 사진에서 메시지 보호와 CSAM의 차이점은 무엇입니까?

이 두 기능은 다르며 동일한 기술을 사용하지 않는 메시지 통신 보안은 부모와 자녀에게 메시지 앱에서 성적으로 노골적인 이미지를 주고받지 못하도록 보호하는 추가 도구를 제공하도록 설계되었습니다. 가족 공유로 설정된 어린이 계정의 메시지 앱에서 보내거나 받은 사진에서만 작동한 다음 장치의 사진을 분석하므로 메시지의 개인 정보가 노출되지 않습니다. 사진을 보거나 보내는 것을 원하지 않으며 추가 예방 조치로 어린 아이들은 자신의 안전을 위해 사진을 보면 부모가 메시지를 받게 될 것이라고 말할 수도 있습니다.

두 번째 기능인 iCloud의 CSAM 사진 스캔은 알려진 CSAM 사진과 일치하는 사진이 아닌 다른 사진에 대한 정보를 Apple에 제공하지 않고 iCloud 사진에서 CSAM을 유지하도록 설계되었습니다. CSAM 이미지의 소유는 미국을 포함한 대부분의 국가에서 불법입니다. 또한 이 기능은 iCloud 사진을 사용하여 사진을 저장하도록 선택한 사용자에게만 영향을 미치며 iCloud 사진을 사용하도록 선택하지 않은 사용자에게는 영향을 미치지 않습니다. 장치의 다른 데이터에는 영향이 없으며 이 기능은 메시지에 적용되지 않습니다.


누가 메시지에서 연결 보안을 사용할 수 있습니까?

메시지의 통신 ​​보안은 iCloud에서 가족으로 설정된 계정에서만 사용할 수 있습니다. 부모 또는 보호자는 가족용 기능을 활성화하도록 선택해야 하며 부모 알림은 12세 이하 어린이 계정의 부모 또는 보호자만 활성화할 수 있습니다.


이것은 메시지가 Apple 또는 법 집행 기관과 공유된다는 것을 의미합니까?

물론 그렇지 않습니다. Apple은 메시지의 이 기능의 결과로 메시지의 정보에 절대 접근할 수 없습니다. 이 기능은 Apple, NCMEC 또는 법 집행 기관과 정보를 공유하지 않습니다. 메시지의 통신 ​​보안 기능은 iCloud 사진 스캔을 위한 CSAM 기능과 별개입니다.


이렇게 하면 메시지 앱의 종단 간 암호화가 중단됩니까?

아니요. 이것은 메시지에 대한 개인 정보 보호 위반으로 이어지지 않으며 Apple은 이 기능의 결과로 귀하의 연락처에 절대 접근할 수 없습니다. 연락처 보안이 활성화된 사용자를 포함하여 메시지 앱의 모든 사용자는 무엇을 누구에게 보낼지 완전히 제어할 수 있습니다.

 자녀의 계정에 이 기능이 활성화된 경우 장치는 메시지의 이미지를 평가하고 이미지가 부적절한 것으로 식별되면 개입을 제공합니다.부적절하며 Apple은 메시지에 액세스하거나 알림을 방해하거나 사진을 평가할 수 없습니다.


이 기능이 학대 아동이 도움을 요청하는 것을 방지합니까?

연결 보안 기능은 메시지로 공유되거나 수신된 음란한 이미지에만 적용되며 문자 메시지를 포함하여 피해자가 도움을 요청할 수 있는 다른 앱과 관련이 없습니다.


부모가 자녀에게 경고하지 않고 선택권을 주지 않고 통지를 받습니까?

아니요. 오 아니; 메시지 통신 보안을 위해 부모 또는 보호자 계정에 가입해야 만 12세 이하 어린이 계정에 대해 부모 알림이 활성화되지만 그 이전에 음란하거나 부적절한 이미지를 보내거나 받을 경우 자녀에게 경고 메시지를 계속 보낼 경우 이미지를 보거나 보내려면 부모에게 알림이 전송되며 이 경고 후에도 자녀가 이미지를 계속 보내거나 볼 경우 부모에게 알림이 전송됩니다. 성적 사진을 보거나 공유하고 싶지만 부모에게 알림이 전송되지 않습니다.


이것은 Apple이 내 기기에 저장된 모든 사진을 확인한다는 것을 의미합니까?

이 기능은 사용자가 iCloud에 업로드하기로 선택한 사진에만 적용되며 iCloud 사진이 비활성화된 사용자에게는 작동하지 않으며 iPhone의 사진 보관함에서도 작동하지 않습니다.


CSAM 이미지가 내 이미지와 일치하도록 내 장치에 다운로드됩니까?

아니요, CSAM 이미지는 장치에 저장되거나 전송되지 않습니다. Apple은 실제 이미지 대신 장치에 저장된 읽을 수 없는 해시를 사용합니다. 이러한 해시는 알려진 CSAM 이미지를 나타내는 숫자 문자열이지만 다시 읽거나 관련 없는 이미지로 변환할 수 없습니다. 이 이미지 해시 세트는 아동 안전 기관에서 CSAM으로 획득하고 검증한 이미지를 기반으로 합니다. 새로운 암호화 응용 프로그램을 통해 Apple은 이러한 해시를 사용하여 알려진 CSAM 사진과 일치하는 사진 배치를 저장하는 iCloud 계정만 식별한 다음 다른 사진을 인식하거나 보지 않고 부적절한 어린이 사진만 식별할 수 있습니다.


왜 지금?

Apple의 큰 과제 중 하나는 사용자의 개인 정보를 보호하면서 어린이를 보호하는 것입니다. 새로운 기능을 통해 Apple은 iCloud에 저장된 CSAM 사진을 감지하고 회사는 기기에 저장된 다른 데이터에 대해 아무것도 배우지 않습니다.

다른 회사가 의존하는 기존 기술은 클라우드에 저장된 모든 사용자 이미지를 스캔합니다. 이로 인해 사용자의 개인 정보 위험이 발생하지만 알려진 CSAM 사진과 일치하고 많은 표준 CSAM 사진이 포함된 iCloud 계정에 포함되어 있지 않으면 사진을 인식할 수 없는 것과 같은 Apple의 사진 스캔 기능과 다릅니다.


iCloud의 CSAM 이미지 감지 시스템을 사용하여 다른 항목을 감지할 수 있습니까?

Apple은 이러한 일이 발생하지 않도록 프로세스를 설계했다고 말했습니다. CSAM 이미지 감지는 시스템이 NCMEC 및 기타 아동 안전 기관에서 제공하는 CSAM 이미지 해시로만 작동하도록 iCloud 이미지용으로 설계되었습니다.

이 이미지 해시 세트는 아동 안전 기관에서 CSAM으로 획득하고 검증한 이미지를 기반으로 합니다. 법 집행 기관에 자동화된 보고는 없으며 Apple은 보고서를 NCMEC(National Center for Missing and Exploited Children)에 제출하기 전에 인적 검토를 수행합니다.

결과적으로 시스템은 iCloud 사진에서 CSAM으로 알려진 사진만 보고하도록 설계되었습니다. 미국을 포함한 대부분의 국가에서 이러한 이미지를 소유하는 것은 범죄이며 Apple은 우리가 알게 된 모든 사례를 해당 당국에 보고할 의무가 있습니다.


정부가 Apple이 해시 목록 파일에 비 CSAM 이미지를 추가하도록 강제할 수 있습니까?

Apple은 그러한 요구를 거부할 것입니다. CSAM 감지 기능은 NCMEC 및 기타 아동 안전 그룹의 전문가가 식별한 iCloud 사진에 저장된 알려진 CSAM 사진만 감지하도록 설계되었습니다.

우리는 이전에 사용자의 개인 정보를 침해하는 정부 부과 변경 사항을 구축 및 게시하라는 요구에 직면했으며 이러한 요구를 단호하게 거부했습니다. 앞으로도 계속 거부할 것입니다. 명확히 하자면 이 기술은 iCloud에 저장된 CSAM을 감지하는 것으로 제한되며 다른 파일이 포함될 수 있는 정부 요청을 승인하지 않습니다.

또한 Apple은 NCMEC에 보고서를 제출하기 전에 인적 검토를 수행합니다. 시스템에서 알려진 CSAM 이미지와 일치하지 않는 이미지에 플래그를 지정하면 계정이 비활성화되지 않으며 NCMEC에 보고서가 제출되지 않습니다.


CSAM은 다른 대상이나 특정 사람을 대상으로 하도록 사용자 지정할 수 있습니까?

우리의 프로세스는 이러한 일이 발생하지 않도록 설계되었습니다. 매칭에 사용되는 이미지 해시는 아동 안전 기관에서 획득 및 검증한 기존 CSAM 이미지에서 가져오고 동일한 해시가 각 iPhone 및 iPad 사용자의 운영 체제에 저장되므로 표적 공격은 특정 개인에 대해서만 이루어지지 않습니다. 우리의 설계에 의해 활성화되고 법 집행 기관에 자동화된 보고가 없는 경우 Apple은 보고서를 제출하기 전에 인적 검토를 수행하며 시스템이 알려진 CSAM 이미지와 일치하지 않는 이미지에 플래그를 지정할 가능성이 없는 경우 계정은 비활성화되며 보고서가 제출되지 않습니다.


기능 때문에 무고한 사람들이 잘못 될 수 있습니까?

아니요, 시스템은 매우 정확하도록 설계되었으며 시스템이 특정 계정에 잘못 플래그를 지정할 확률은 연간 계정 XNUMX조 개당 XNUMX개 미만입니다. 또한 시스템에서 계정에 플래그를 지정할 때마다 Apple은 인적 검토를 수행합니다. NCMEC에 보고서를 제출하기 전에 결과적으로 시스템 오류 또는 공격으로 인해 무고한 보고가 발생하지 않습니다.

어린이에게 부적절한 이미지를 감지하는 Apple의 새로운 기능에 대해 어떻게 생각하십니까? 댓글로 알려주십시오.

한국어 :

사과

관련 기사