Ожидается, что Apple запустит свою функцию Новый CSAM по безопасности детей Позже в этом году, в частности, с запуском операционной системы iOS 15, но один из разработчиков сказал, что они нашли алгоритм, с помощью которого эта функция работает в более старых версиях операционной системы iPhone, и обнаружили недостаток и технический недостаток в этой технологии. . Так что же это за дефект и какова была реакция Apple?

В технологии Apple по борьбе с жестоким обращением с детьми обнаружена уязвимость, и Apple отвечает.


Функция анализа и сканирования изображений CSAM

Пользователь Reddit говорит, что он обнаружил версию алгоритма NeuralHash, используемую для обнаружения изображений CSAM в iOS 14.3.

Ответ Apple был следующим: Извлеченная версия устарела и не будет использоваться.

Разработчик, известный как AsuharietYgvar, смог найти код NerualHash, скрытый внутри iOS 14.3, и сказал, что он перепроектировал код и реконструировал рабочую модель на Python, которую можно протестировать, передав изображения этих кодов.

Разработчик утверждает, что этот алгоритм не обманывает сжатие или изменение размера изображения, но он не может обнаружить процесс обрезки или поворота изображения. Используя язык Python, пользователи платформы GitHub начали изучать, как работает алгоритм, и можно ли им злоупотреблять и эксплуатировать таким образом, чтобы угрожать владельцам iPhone. Злоупотребление и совершенно невинное изображение, но оно обманывает коды Apple и дает совпадение с Коды CSAM, поэтому теоретически хакер может отправить эти очень естественно выглядящие фотографии в качестве обоев вашего устройства или обычного ландшафта пользователям Apple, чтобы попытаться запустить алгоритм и уловить их и вызвать у них проблемы.


Не окончательная версия

Несмотря на эти недостатки, можно сказать, что обнаруженный алгоритм не является окончательной версией, поскольку Apple разрабатывала алгоритм обнаружения изображений CSAM в течение многих лет, поэтому предполагается, что есть несколько версий кода для тестирования.

Что касается возможности создания фальшивых фотографий и отправки их пользователям iPhone для их захвата, это не так просто, потому что Apple не раскрывает фотографии, если они не синхронизированы с облаком, и не забывает человеческий обзор, чтобы убедиться, что фотографии на самом деле содержат жестокое обращение с детьми, все это означает, что атака, которая предполагается верной в теории, но трудной на практике.


Apple ответила

Apple заявила в своем заявлении, что код NeuralHash, обнаруженный в iOS 14.3, не является окончательной версией, и никто еще не обнаружил наличие базы данных CSAM или алгоритма сопоставления в бета-версии iOS 15, но ожидается, что эта функция будет запущена в ее полная версия после появления системы.Новый запуск iOS 15.

Что вы думаете о новой функции безопасности детей Apple, и есть ли опасения, что ею могут злоупотребить, расскажите нам в комментариях

المصدر:

вице

Статьи по теме