Apple dự kiến ​​sẽ tung ra tính năng của mình CSAM an toàn cho trẻ em mới Cuối năm nay, cụ thể là với sự ra mắt của iOS 15, nhưng một trong những nhà phát triển nói rằng họ đã tìm ra thuật toán mà tính năng này hoạt động trong các phiên bản cũ hơn của hệ điều hành iPhone và phát hiện ra một lỗ hổng và lỗ hổng kỹ thuật trong công nghệ này. Vậy khiếm khuyết này là gì và phản ứng của Apple là gì?

Một lỗ hổng đã được phát hiện trong công nghệ chống lạm dụng trẻ em của Apple và Apple phản hồi


Tính năng quét và phân tích hình ảnh CSAM

Một người dùng Reddit cho biết anh ta đã phát hiện ra một phiên bản của thuật toán NeuralHash được sử dụng để phát hiện hình ảnh CSAM trong iOS 14.3.

Phản hồi của Apple là: Phiên bản giải nén không được cập nhật và sẽ không được sử dụng.

Nhà phát triển được biết đến với cái tên AsuharietYgvar đã có thể tìm thấy mã NerualHash được chôn bên trong iOS 14.3 và nói rằng anh ta đã thiết kế ngược mã và tạo lại một mô hình hoạt động bằng Python có thể được kiểm tra bằng cách truyền hình ảnh của những mã này.

Nhà phát triển tuyên bố rằng thuật toán này không bị đánh lừa bởi việc nén hoặc thay đổi kích thước hình ảnh nhưng nó không thể phát hiện ra quá trình cắt xén hoặc xoay hình ảnh. Sử dụng ngôn ngữ Python, người dùng nền tảng GitHub đã bắt đầu kiểm tra cách thức hoạt động của thuật toán và liệu nó có thể bị lạm dụng và khai thác theo cách đe dọa chủ sở hữu iPhone. , do đó về lý thuyết, một hacker có thể gửi những bức ảnh trông rất tự nhiên này làm hình nền thiết bị của bạn hoặc phong cảnh bình thường cho người dùng Apple để cố gắng chạy thuật toán và bẫy chúng và gây ra sự cố.


Không phải là phiên bản cuối cùng

Bất chấp những thiếu sót này, có thể nói rằng thuật toán được phát hiện không phải là phiên bản cuối cùng vì Apple đã xây dựng thuật toán phát hiện hình ảnh CSAM trong nhiều năm nên có thể sẽ có một số phiên bản của mã để thử nghiệm.

Còn về khả năng tạo ảnh giả và gửi cho người dùng iPhone để gài bẫy thì không hề đơn giản, bởi Apple không để lộ ảnh trừ khi chúng được đồng bộ hóa với đám mây và không quên xem xét của con người để đảm bảo rằng ảnh thực sự có chứa lạm dụng trẻ em, tất cả những điều này có nghĩa là cuộc tấn công được cho là đúng trên lý thuyết nhưng khó thực hiện.


Apple đã trả lời

Apple cho biết trong một tuyên bố rằng mã NeuralHash được phát hiện trong iOS 14.3 không phải là phiên bản cuối cùng, cũng không ai phát hiện ra sự tồn tại của cơ sở dữ liệu CSAM hoặc thuật toán khớp trong phiên bản iOS 15 beta, nhưng tính năng này dự kiến ​​sẽ được tung ra trong phiên bản đầy đủ của nó sau khi xuất hiện hệ thống Mới khởi chạy iOS 15.

Bạn nghĩ gì về tính năng an toàn cho trẻ em mới của Apple và có lo sợ rằng nó có thể bị lạm dụng không, hãy cho chúng tôi biết trong phần bình luận

Nguồn:

phó

Những bài viết liên quan