Ожидается, что Apple запустит свою функцию Новый CSAM по безопасности детей Позже в этом году, в частности, с запуском операционной системы iOS 15, но один из разработчиков сказал, что они нашли алгоритм, с помощью которого эта функция работает в более старых версиях операционной системы iPhone, и обнаружили недостаток и технический недостаток в этой технологии. . Так что же это за дефект и какова была реакция Apple?
Функция анализа и сканирования изображений CSAM
Пользователь Reddit говорит, что он обнаружил версию алгоритма NeuralHash, используемую для обнаружения изображений CSAM в iOS 14.3.
Ответ Apple был следующим: Извлеченная версия устарела и не будет использоваться.
Разработчик, известный как AsuharietYgvar, смог найти код NerualHash, скрытый внутри iOS 14.3, и сказал, что он перепроектировал код и реконструировал рабочую модель на Python, которую можно протестировать, передав изображения этих кодов.
Разработчик утверждает, что этот алгоритм не обманывает сжатие или изменение размера изображения, но он не может обнаружить процесс обрезки или поворота изображения. Используя язык Python, пользователи платформы GitHub начали изучать, как работает алгоритм, и можно ли им злоупотреблять и эксплуатировать таким образом, чтобы угрожать владельцам iPhone. Злоупотребление и совершенно невинное изображение, но оно обманывает коды Apple и дает совпадение с Коды CSAM, поэтому теоретически хакер может отправить эти очень естественно выглядящие фотографии в качестве обоев вашего устройства или обычного ландшафта пользователям Apple, чтобы попытаться запустить алгоритм и уловить их и вызвать у них проблемы.
Не окончательная версия
Несмотря на эти недостатки, можно сказать, что обнаруженный алгоритм не является окончательной версией, поскольку Apple разрабатывала алгоритм обнаружения изображений CSAM в течение многих лет, поэтому предполагается, что есть несколько версий кода для тестирования.
Что касается возможности создания фальшивых фотографий и отправки их пользователям iPhone для их захвата, это не так просто, потому что Apple не раскрывает фотографии, если они не синхронизированы с облаком, и не забывает человеческий обзор, чтобы убедиться, что фотографии на самом деле содержат жестокое обращение с детьми, все это означает, что атака, которая предполагается верной в теории, но трудной на практике.
Apple ответила
Apple заявила в своем заявлении, что код NeuralHash, обнаруженный в iOS 14.3, не является окончательной версией, и никто еще не обнаружил наличие базы данных CSAM или алгоритма сопоставления в бета-версии iOS 15, но ожидается, что эта функция будет запущена в ее полная версия после появления системы.Новый запуск iOS 15.
المصدر:
Меня арестовывают за то, что я ел детей, потому что в моем мобильном телефоне полно видео, и я играю со своими детьми, как будто я их ем хахахахахаха
Apple до сих пор ничего не прояснила относительно уведомления и компенсации пользователям, чьи фотографии были проверены людьми и оказались невиновными.
Будет ли Apple компенсировать им нарушение их конфиденциальности, показывая сотрудникам Apple их личные фотографии?
Конечно, он будет использоваться для поиска других вещей и без нашего ведома, и страны могут использовать его для поиска чего-либо еще.
Apple - не ангел, и, в конце концов, это эксплуататорская компания, которая заинтересована только в сборе денег.
Спасибо за ваши усилия и интерес