Apple dự kiến sẽ tung ra tính năng của mình CSAM an toàn cho trẻ em mới Cuối năm nay, cụ thể là với sự ra mắt của iOS 15, nhưng một trong những nhà phát triển nói rằng họ đã tìm ra thuật toán mà tính năng này hoạt động trong các phiên bản cũ hơn của hệ điều hành iPhone và phát hiện ra một lỗ hổng và lỗ hổng kỹ thuật trong công nghệ này. Vậy khiếm khuyết này là gì và phản ứng của Apple là gì?
Tính năng quét và phân tích hình ảnh CSAM
Một người dùng Reddit cho biết anh ta đã phát hiện ra một phiên bản của thuật toán NeuralHash được sử dụng để phát hiện hình ảnh CSAM trong iOS 14.3.
Phản hồi của Apple là: Phiên bản giải nén không được cập nhật và sẽ không được sử dụng.
Nhà phát triển được biết đến với cái tên AsuharietYgvar đã có thể tìm thấy mã NerualHash được chôn bên trong iOS 14.3 và nói rằng anh ta đã thiết kế ngược mã và tạo lại một mô hình hoạt động bằng Python có thể được kiểm tra bằng cách truyền hình ảnh của những mã này.
Nhà phát triển tuyên bố rằng thuật toán này không bị đánh lừa bởi việc nén hoặc thay đổi kích thước hình ảnh nhưng nó không thể phát hiện ra quá trình cắt xén hoặc xoay hình ảnh. Sử dụng ngôn ngữ Python, người dùng nền tảng GitHub đã bắt đầu kiểm tra cách thức hoạt động của thuật toán và liệu nó có thể bị lạm dụng và khai thác theo cách đe dọa chủ sở hữu iPhone. , do đó về lý thuyết, một hacker có thể gửi những bức ảnh trông rất tự nhiên này làm hình nền thiết bị của bạn hoặc phong cảnh bình thường cho người dùng Apple để cố gắng chạy thuật toán và bẫy chúng và gây ra sự cố.
Không phải là phiên bản cuối cùng
Bất chấp những thiếu sót này, có thể nói rằng thuật toán được phát hiện không phải là phiên bản cuối cùng vì Apple đã xây dựng thuật toán phát hiện hình ảnh CSAM trong nhiều năm nên có thể sẽ có một số phiên bản của mã để thử nghiệm.
Còn về khả năng tạo ảnh giả và gửi cho người dùng iPhone để gài bẫy thì không hề đơn giản, bởi Apple không để lộ ảnh trừ khi chúng được đồng bộ hóa với đám mây và không quên xem xét của con người để đảm bảo rằng ảnh thực sự có chứa lạm dụng trẻ em, tất cả những điều này có nghĩa là cuộc tấn công được cho là đúng trên lý thuyết nhưng khó thực hiện.
Apple đã trả lời
Apple cho biết trong một tuyên bố rằng mã NeuralHash được phát hiện trong iOS 14.3 không phải là phiên bản cuối cùng, cũng không ai phát hiện ra sự tồn tại của cơ sở dữ liệu CSAM hoặc thuật toán khớp trong phiên bản iOS 15 beta, nhưng tính năng này dự kiến sẽ được tung ra trong phiên bản đầy đủ của nó sau khi xuất hiện hệ thống Mới khởi chạy iOS 15.
Nguồn:
Họ bắt tôi ăn thịt trẻ em vì điện thoại di động của tôi có đầy video và tôi đang chơi với con tôi như thể tôi đang ăn thịt chúng vậy hahahaha
Apple vẫn chưa nói gì về việc thông báo và bồi thường cho những người dùng có ảnh đã được con người xem xét và được chứng minh là vô tội.
Liệu Apple có bồi thường cho họ vì đã vi phạm quyền riêng tư của họ bằng cách cho nhân viên Apple xem ảnh riêng tư của họ không?
Tất nhiên, nó sẽ được sử dụng để tìm kiếm những thứ khác mà chúng ta không hề hay biết, và các quốc gia có thể sử dụng nó để tìm kiếm bất cứ thứ gì khác.
Apple không phải là một thiên thần, và cuối cùng nó là một công ty bóc lột chỉ quan tâm đến việc huy động tiền
Cảm ơn bạn vì những nỗ lực và lợi ích