Những ngày qua, Apple đã hứng chịu rất nhiều chỉ trích do Tính năng quét hình ảnh Với các thiết bị của mình, được ra mắt để bảo vệ trẻ em và ngăn chặn việc lạm dụng hoặc khai thác chúng, hay những gì được gọi là hình ảnh CSAM, nhiều tổ chức quyền riêng tư và thậm chí cả các chuyên gia đã bày tỏ lo ngại về việc biến tính năng này thành lỗ hổng mà tin tặc hoặc thậm chí chính phủ có thể khai thác vi phạm quyền riêng tư của người dùng iPhone và để loại bỏ bất kỳ sự nhầm lẫn nào hoặc Làm rõ và giải thích mọi thứ một cách chính xác. Apple đã phát hành một tệp dưới dạng Câu hỏi thường gặp giải thích mọi thứ về tính năng mới của nó và những gì đang xảy ra đằng sau hậu trường và chúng ta hãy tìm hiểu mọi thứ về tính năng an toàn cho trẻ em và liệu nó có thực sự đe dọa đến quyền riêng tư của người dùng hay không.

Apple đáp trả cáo buộc vi phạm quyền riêng tư trong tính năng chống lạm dụng trẻ em


Sự khác biệt giữa Bảo vệ Tin nhắn và CSAM trong Ảnh iCloud là gì?

Hai tính năng này khác nhau và không sử dụng cùng một công nghệ vì Bảo mật liên lạc trong Tin nhắn được thiết kế để cung cấp cho cha mẹ và trẻ em những công cụ bổ sung giúp bảo vệ con cái họ khỏi việc gửi và nhận hình ảnh khiêu dâm trong ứng dụng Tin nhắn. Nó chỉ hoạt động trên ảnh được gửi hoặc nhận trong ứng dụng Tin nhắn dành cho tài khoản của trẻ em được thiết lập với Chia sẻ trong gia đình, sau đó phân tích ảnh trên thiết bị và do đó không tiết lộ quyền riêng tư của tin nhắn. Hữu ích và yên tâm rằng không sao cả nếu anh ấy không làm vậy ' không muốn xem hoặc gửi hình ảnh và để đề phòng thêm, trẻ nhỏ cũng có thể được thông báo rằng vì sự an toàn của bản thân, cha mẹ của chúng sẽ nhận được một tin nhắn nếu chúng nhìn thấy nó.

Tính năng thứ hai, CSAM Photo Scan trong iCloud, được thiết kế để ngăn CSAM ra khỏi iCloud Photos mà không cung cấp thông tin cho Apple về bất kỳ ảnh nào khác với những ảnh trùng khớp với ảnh CSAM đã biết. Sở hữu hình ảnh CSAM là bất hợp pháp ở hầu hết các quốc gia, bao gồm cả Hoa Kỳ. Ngoài ra, tính năng này chỉ ảnh hưởng đến những người dùng đã chọn sử dụng Ảnh iCloud để lưu trữ ảnh của họ và nó không ảnh hưởng đến những người dùng không chọn sử dụng Ảnh iCloud. Không có ảnh hưởng đến bất kỳ dữ liệu nào khác trên thiết bị và tính năng này không áp dụng cho tin nhắn.


Ai có thể sử dụng bảo mật kết nối trong tin nhắn?

Bảo mật liên lạc trong Tin nhắn chỉ khả dụng cho các tài khoản được thiết lập thành gia đình trong iCloud. Cha mẹ hoặc người giám hộ phải chọn bật tính năng này cho gia đình và chỉ cha mẹ hoặc người giám hộ mới có thể bật thông báo của cha mẹ đối với tài khoản của trẻ em từ 12 tuổi trở xuống.


Điều này có nghĩa là các tin nhắn sẽ được chia sẻ với Apple hoặc các cơ quan thực thi pháp luật?

Tất nhiên là không, Apple sẽ không bao giờ có thể truy cập thông tin trong Tin nhắn do tính năng này trong Tin nhắn. Tính năng này không chia sẻ bất kỳ thông tin nào với Apple, NCMEC hoặc các cơ quan thực thi pháp luật. Tính năng bảo mật thông tin liên lạc trong Tin nhắn tách biệt với tính năng CSAM để quét ảnh iCloud.


Điều này có phá vỡ mã hóa đầu cuối trong ứng dụng Tin nhắn không?

Không. Điều này không dẫn đến vi phạm quyền riêng tư đối với tin nhắn và Apple sẽ không bao giờ có thể truy cập danh bạ của bạn do tính năng này. Bất kỳ người dùng nào của ứng dụng Tin nhắn, kể cả những người đã bật bảo mật liên hệ, đều có toàn quyền kiểm soát những gì được gửi và gửi cho ai.

 Nếu tính năng được bật cho tài khoản của trẻ, thiết bị sẽ đánh giá hình ảnh trong tin nhắn và đưa ra biện pháp can thiệp nếu một hình ảnh được xác định là không phù hợp. Nó không phù hợp và Apple không thể truy cập tin nhắn, can thiệp vào thông báo hoặc xếp hạng ảnh.


Tính năng này có ngăn trẻ em bị lạm dụng tìm kiếm sự trợ giúp không?

Tính năng bảo mật kết nối chỉ áp dụng cho các hình ảnh khiêu dâm được chia sẻ hoặc nhận trong tin nhắn và không liên quan gì đến các ứng dụng khác mà nạn nhân có thể sử dụng để tìm kiếm sự trợ giúp, bao gồm cả tin nhắn văn bản. Hướng dẫn cách tìm kiếm sự trợ giúp.


Liệu cha mẹ có được thông báo mà không báo trước cho bọn trẻ và cho chúng lựa chọn không?

Không. Hỡi không; Tài khoản của cha mẹ hoặc người giám hộ phải đăng ký để kích hoạt bảo mật thông tin liên lạc trong tin nhắn Thông báo của cha mẹ được bật cho tài khoản của trẻ em từ 12 tuổi trở xuống nhưng trước đó, bất kỳ hình ảnh khiêu dâm hoặc không phù hợp nào được gửi hoặc nhận, trẻ sẽ được cảnh báo rằng nếu chúng tiếp tục Xem hoặc gửi hình ảnh, một thông báo sẽ được gửi đến cha mẹ của chúng và nếu đứa trẻ tiếp tục gửi hoặc xem một hình ảnh sau cảnh báo này, cha mẹ sẽ được thông báo Đối với tài khoản của trẻ từ 13-17 tuổi, đứa trẻ vẫn được cảnh báo và hỏi xem chúng có muốn xem hoặc Chia sẻ một bức ảnh tình dục, nhưng cha mẹ không được thông báo.


Điều này có nghĩa là Apple sẽ kiểm tra tất cả ảnh được lưu trữ trên thiết bị của tôi?

Tính năng này chỉ áp dụng cho ảnh mà người dùng chọn tải lên iCloud, tính năng này không hoạt động với những người dùng đã tắt ảnh iCloud và nó cũng không hoạt động trên thư viện ảnh trên iPhone của bạn.


Hình ảnh CSAM được tải xuống thiết bị của tôi có khớp với hình ảnh của tôi không?

Không, hình ảnh CSAM không được lưu trữ hoặc gửi đến thiết bị. Thay vì hình ảnh thực tế, Apple sử dụng các hàm băm không thể đọc được được lưu trữ trên thiết bị. Các hàm băm này là các chuỗi số đại diện cho các hình ảnh CSAM đã biết, nhưng không thể đọc lại hoặc chuyển đổi lại thành các hình ảnh không liên quan. Bộ băm hình ảnh này dựa trên hình ảnh được các tổ chức an toàn trẻ em thu được và xác nhận là CSAM. Với các ứng dụng mã hóa mới, Apple có thể sử dụng các hàm băm này để chỉ xác định các tài khoản iCloud lưu trữ lô ảnh khớp với ảnh CSAM đã biết và sau đó chỉ có thể xác định ảnh trẻ em không phù hợp mà không nhận ra hoặc nhìn thấy bất kỳ ảnh nào khác.


tại sao bây giờ?

Một trong những thách thức lớn của Apple là giúp bảo vệ trẻ em trong khi bảo vệ quyền riêng tư của người dùng. Với tính năng mới, Apple sẽ phát hiện ảnh CSAM được lưu trữ trong iCloud và công ty sẽ không tìm hiểu bất cứ điều gì về dữ liệu khác được lưu trữ trên thiết bị của bạn.

Các công nghệ hiện có mà các công ty khác dựa vào quét tất cả hình ảnh người dùng được lưu trữ trên đám mây. Điều này gây ra rủi ro về quyền riêng tư cho người dùng nhưng với tính năng Quét ảnh của Apple thì khác, chẳng hạn như không thể nhận dạng ảnh trừ khi cả hai đều khớp với ảnh CSAM đã biết và được đưa vào tài khoản iCloud bao gồm nhiều ảnh CSAM chuẩn.


Hệ thống phát hiện hình ảnh CSAM của iCloud có thể được sử dụng để phát hiện những thứ khác không?

Apple nói rằng thiết kế của quá trình để ngăn chặn điều này xảy ra. Tính năng phát hiện hình ảnh CSAM được thiết kế cho hình ảnh iCloud để hệ thống chỉ hoạt động với hàm băm hình ảnh CSAM do NCMEC và các tổ chức an toàn trẻ em khác cung cấp.

Bộ băm hình ảnh này dựa trên hình ảnh được các tổ chức an toàn trẻ em thu được và xác nhận là CSAM. Không có báo cáo tự động cho cơ quan thực thi pháp luật và Apple tiến hành xem xét con người trước khi gửi báo cáo của mình cho Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC).

Do đó, hệ thống chỉ được thiết kế để báo cáo ảnh được gọi là CSAM trong Ảnh iCloud. Ở hầu hết các quốc gia, bao gồm cả Hoa Kỳ, sở hữu những hình ảnh này là một tội ác và Apple có nghĩa vụ phải báo cáo bất kỳ trường hợp nào mà chúng tôi biết được cho các cơ quan có thẩm quyền thích hợp.


Chính phủ có thể buộc Apple thêm hình ảnh không phải CSAM vào tệp danh sách băm không?

Apple sẽ từ chối bất kỳ yêu cầu nào như vậy. Khả năng phát hiện CSAM được thiết kế để phát hiện chỉ những ảnh CSAM đã biết được lưu trữ trong Ảnh iCloud đã được xác định bởi các chuyên gia tại NCMEC và các nhóm an toàn trẻ em khác.

Trước đây, chúng tôi đã phải đối mặt với các yêu cầu xây dựng và xuất bản các thay đổi do chính phủ áp đặt làm suy yếu quyền riêng tư của người dùng và chúng tôi đã kiên quyết từ chối những yêu cầu này. Chúng tôi sẽ tiếp tục từ chối nó trong tương lai. Nói rõ hơn, công nghệ này chỉ giới hạn trong việc phát hiện CSAM được lưu trữ trong iCloud và chúng tôi sẽ không chấp thuận bất kỳ yêu cầu nào của chính phủ có thể liên quan đến các tệp khác.

Hơn nữa, Apple thực hiện đánh giá con người trước khi gửi báo cáo cho NCMEC. Nếu hệ thống gắn cờ các hình ảnh không khớp với hình ảnh CSAM đã biết, tài khoản sẽ không bị vô hiệu hóa và sẽ không có báo cáo nào được gửi đến NCMEC.


CSAM có thể được tùy chỉnh để nhắm mục tiêu những thứ khác hoặc những người cụ thể không?

Quy trình của chúng tôi được thiết kế để ngăn điều này xảy ra. Các hàm băm hình ảnh được sử dụng để đối sánh được lấy từ các hình ảnh CSAM hiện có và đã biết đã được các tổ chức an toàn trẻ em thu thập và xác thực đồng thời cùng một hàm băm được lưu trữ trong hệ điều hành của mỗi người dùng iPhone và iPad, vì vậy các cuộc tấn công có chủ đích chỉ nhằm vào các cá nhân cụ thể. được kích hoạt bởi thiết kế của chúng tôi và không có báo cáo tự động cho cơ quan thực thi pháp luật, Apple tiến hành xem xét con người trước khi gửi báo cáo của mình và trong trường hợp hệ thống không có khả năng gắn cờ các hình ảnh không khớp với hình ảnh CSAM đã biết, tài khoản sẽ không bị vô hiệu hóa và sẽ không có báo cáo nào được nộp.


Những người vô tội có thể đi sai vì tính năng?

Không, hệ thống đã được thiết kế để cực kỳ chính xác và xác suất hệ thống gắn cờ không chính xác cho bất kỳ tài khoản nhất định nào là ít hơn một trong mỗi nghìn tỷ tài khoản mỗi năm. Ngoài ra, bất kỳ khi nào một tài khoản bị hệ thống gắn cờ, Apple sẽ xử lý con người xem xét trước khi Gửi báo cáo của mình cho NCMEC và do đó, lỗi hệ thống hoặc các cuộc tấn công sẽ không dẫn đến việc báo cáo vô tội.

Bạn nghĩ gì về tính năng mới của Apple để phát hiện hình ảnh không phù hợp với trẻ em, hãy cho chúng tôi biết trong phần bình luận

Nguồn:

táo

Những bài viết liên quan