Очікується, що Apple запустить свою функцію Новий CSAM з питань безпеки дітей Пізніше цього року, зокрема із запуском iOS 15, але один із розробників сказав, що вони знайшли алгоритм, за допомогою якого ця функція працює, у старих версіях операційної системи iPhone та виявили недолік та технічний недолік у цій технології. То в чому ж цей дефект і що відповіла компанія Apple?

У технології Apple проти жорстокого поводження з дітьми було виявлено недолік, і Apple реагує на це


Функція аналізу та сканування зображень CSAM

Користувач Reddit каже, що відкрив версію алгоритму NeuralHash, який використовується для виявлення зображень CSAM у iOS 14.3.

Відповідь Apple була такою: видобута версія не оновлюється і не буде використовуватися.

Розробник, відомий як AsuharietYgvar, зміг знайти код NerualHash, захований у iOS 14.3, і сказав, що він змінив код і реконструював робочу модель у Python, яку можна перевірити, передавши зображення цих кодів.

Розробник стверджує, що цей алгоритм не обманює стиснення зображення або зміна його розміру, але він не може виявити процес обрізання або обертання зображення. Користуючись мовою Python, користувачі платформи GitHub почали вивчати, як працює алгоритм, і чи можна його зловживати та використовувати таким чином, що загрожує власникам iPhone. Зловживана і абсолютно невинна фотографія, але вона обманює коди Apple і дає відповідність кодам CSAM Таким чином, теоретично хакер міг би надіслати ці дуже природні фотографії як шпалери вашого пристрою або звичайний пейзаж користувачам Apple, щоб спробувати запустити алгоритм, захопити їх у пастку та викликати у них проблеми.


Не остаточна версія

Незважаючи на ці недоліки, можна сказати, що виявлений алгоритм не є остаточною версією, оскільки Apple роками будує алгоритм виявлення зображень CSAM, тому передбачається наявність деяких версій коду для тестування.

Щодо можливості створення підроблених фотографій та надсилання їх користувачам iPhone, щоб вони захопили їх у пастку, це не так просто, оскільки Apple не розкриває фотографії, якщо вони не синхронізовані з хмарою, і не забувають огляд людей, щоб переконатися, що фотографії насправді містять жорстоке поводження з дітьми, все це означає, що напад, який вважається вірним теоретично, але важким на практиці.


Apple відповіла

У своїй заяві Apple заявила, що код NeuralHash, виявлений в iOS 14.3, не є остаточною версією, також ніхто не виявив існування бази даних CSAM або відповідного алгоритму в бета -версії iOS 15, але очікується, що ця функція буде запущена в її повна версія після появи системи Новий запуск iOS 15.

Що ви думаєте про нову функцію безпеки дітей від Apple, і чи є побоювання, що її можна використати не за призначенням, повідомте нам у коментарях

Джерело:

віце

مقالات ذات لل