З метою боротьби з сексуальним насильством над дітьми Apple має намір встановити на американських айфонах програму для пошуку незаконних зображень, зокрема таких, як жорстоке поводження з дітьми або експлуатація, однак багато експертів вважають, що це може становити загрозу для конфіденційності користувачів, оскільки якщо вони Це може відкрити двері для моніторингу мільйонів пристроїв для користувачів по всьому світу.

Нова система Apple

Apple детально розповіла про запропоновану систему, яку вона назвала "neuralMatch", деяким американським науковцям на початку цього тижня, і, за словами двох дослідників безпеки, які ознайомили з віртуальною зустріччю, очікується, що програма Apple буде впроваджена якнайшвидше цього тижня.
NeuralMatch - це автоматизована система, яка заздалегідь оповіщатиме групу експертів, якщо вони вважатимуть, що були виявлені незаконні зображення, після чого рецензенти зв'яжуться з правоохоронними органами та повідомлять власника пристрою.
Apple та правоохоронні органи

Напруженість між такими технологічними компаніями, як Apple та Facebook, які виступають за все ширше використання шифрування у своїх продуктах та послугах, та правоохоронними органами, спала, оскільки Apple у 2016 році відмовилася допомогти ФБР у доступі до iPhone підозрюваного у стрілянина. Сан -Бернардіно, Каліфорнія.
Прагнучи задовольнити всі сторони, будь то користувачі чи влада, Apple оголосила про свою нову систему Neural Match, яка є компромісом між її обіцянкою захищати конфіденційність клієнтів та постійними вимогами урядів та правоохоронних органів щодо більшої допомоги у кримінальних розслідуваннях, включаючи тероризм та дитячої порнографії.
Як працює Neural Match?

Алгоритм NeuralMatch буде безперервно сканувати фотографії, що зберігаються на iPhone американського користувача та завантажуються до системи резервного копіювання iCloud. Відомі зображення сексуального насильства над дітьми.
Apple навчила систему близько 200000 XNUMX зображень сексуального насильства, зібраних американським некомерційним Національним центром зниклих та експлуатованих дітей.
За словами людей, які були ознайомлені з планами, кожне фото, завантажене в iCloud у США, отримає "ваучер безпеки", який повідомляє, підозріло це чи ні, а як тільки певну кількість фотографій буде позначено як підозрілі, це дозволить Apple розшифрує всі фотографії. Підозрілі, а якщо і незаконні, будуть негайно повідомлені владі.
Apple та конфіденційність

Apple може вважати, що конфіденційність - це право кожного користувача, і, незважаючи на її добрі наміри з питань експлуатації та жорстокого поводження з дітьми, багато експертів у галузі безпеки стурбовані тим, що Apple може ризикувати, дозволивши урядам у всьому світі отримати доступ до персональних даних своїх громадян, що може вийти за межі оригіналу.
"Це абсолютно жахлива ідея, тому що це призведе до масового спостереження, тому що системою Apple можна маніпулювати, щоб шукати будь -які інші цільові зображення та текст, а найголовніше, що ідея Apple збільшить тиск на інші технологічні компанії з використанням подібних технологій" говорить Росс Андерсон, професор інженерної безпеки Кембриджського університету.
Алек Моффіт, дослідник безпеки та активіст конфіденційності, який раніше працював у Facebook та Deliveroo, сказав, що крок Apple був "абсолютно несподіваним і значним відступом у конфіденційності".
Метью Грін, професор безпеки з Університету Джона Хопкінса, який вважається першим дослідником, який написав твіт у цьому питанні, також вважає, що те, що зробила Apple, зламає греблю, тому що уряди тиснуть на інші компанії, щоб зробити те саме.
Алан Вудворд, професор комп’ютерної безпеки в Університеті Суррей, сказав: «Система Apple менш інвазивна, оскільки сканування проводиться по телефону, і влада отримує повідомлення про наявність відповідності, і цей децентралізований підхід - найкращий спосіб може прийняти для збереження конфіденційності ».
Джерело:



26 відгуків