Протягом останніх днів Apple була в центрі уваги з великою кількістю критики Функція сканування зображення За допомогою своїх пристроїв, які вона запустила для захисту дітей та запобігання зловживанням або експлуатації їх, або так званих зображень CSAM, і багато організацій з питань конфіденційності та навіть експерти висловили стурбованість щодо перетворення цієї функції у лазівку, яку можуть використовувати хакери чи навіть уряди порушувати конфіденційність користувачів iPhone, а також щоб усунути плутанину або уточнити та правильно пояснити. Apple запустила файл у вигляді поширених запитань, що пояснює все про його нову функцію та те, що відбувається за лаштунками, і давайте все дізнаємось про функцію безпеки дітей та про те, чи дійсно це загрожує конфіденційності користувачів чи ні.

Apple реагує на звинувачення у порушенні конфіденційності у функції проти експлуатації дітей


Яка різниця між захистом повідомлень та CSAM у iCloud Photos?

Ці дві функції різні і не використовують ту саму технологію, що й Безпека зв’язку в Повідомленнях, призначена для надання батькам та дітям додаткових інструментів, які допомагають захистити їхніх дітей від надсилання та отримання зображень сексуального характеру у додатку Повідомлення. Він працює лише на фотографіях, надісланих або отриманих у додатку Повідомлення для облікових записів дітей, створених із функцією Family Sharing, а потім аналізує фотографії на пристрої і, отже, не викриває конфіденційність повідомлень. Корисно і запевняє, що це нормально, якщо він цього не робить. не хочуть переглядати або надсилати зображення, і як додатковий запобіжний захід маленьким дітям також можна повідомити, що для їхньої безпеки батьки отримають повідомлення, якщо вони його побачать.

Друга функція, CSAM Photo Scan в iCloud, призначена для запобігання CSAM від iCloud Photos без надання інформації Apple про будь -які фотографії, крім тих, що відповідають відомим фотографіям CSAM. Володіння зображеннями CSAM є незаконним у більшості країн, включаючи США. Крім того, ця функція впливає лише на користувачів, які вирішили використовувати фотографії iCloud для зберігання своїх фотографій, і не впливає на користувачів, які не вирішили використовувати фотографії iCloud. Це не впливає на інші дані на пристрої, і ця функція не поширюється на повідомлення.


Хто може використовувати безпеку з'єднання в повідомленнях?

Захист зв'язку в Повідомленнях доступний лише для облікових записів, створених сімейними групами в iCloud. Батьки або опікуни повинні вибрати, щоб увімкнути цю функцію для сім'ї, а сповіщення батьків можуть бути активовані лише батьками або опікунами облікових записів для дітей віком до 12 років.


Чи означає це, що повідомлення будуть передані Apple або правоохоронним органам?

Звичайно, ні, Apple не зможе отримати доступ до інформації в Повідомленнях через цю функцію в Повідомленнях. Ця функція не надає жодної інформації Apple, NCMEC або правоохоронним органам. Функція захисту повідомлень у Повідомленнях відокремлена від функції CSAM для сканування фотографій iCloud.


Чи порушує це наскрізне шифрування в додатку Повідомлення?

Ні. Це не призводить до порушення конфіденційності повідомлень, і Apple ніколи не зможе отримати доступ до ваших контактів унаслідок цієї функції. Будь -який користувач програми "Повідомлення", включаючи тих, у кого ввімкнена захист контактів, має повний контроль над тим, що надсилається і кому.

 Якщо ця функція ввімкнена для облікового запису дитини, пристрій оцінить зображення у повідомленнях і надасть втручання, якщо зображення буде визнано як неприйнятне. Це недоречно, і Apple не може отримати доступ до повідомлень, перешкоджати сповіщенням або оцінювати фотографії.


Чи перешкоджає ця функція дітям, яким знущаються, звертатися за допомогою?

Функція захисту з’єднання застосовується лише до зображень сексуального характеру, які надсилаються або надходять у повідомленнях, і не має нічого спільного з іншими програмами, за допомогою яких жертви можуть звертатися за допомогою, включаючи текстові повідомлення. Вказівки щодо звернення за допомогою.


Чи будуть повідомлені батьки, не попередивши дітей та не давши їм права вибору?

Ні. О ні; Облікові записи батьків або опікунів повинні зареєструватися, щоб забезпечити безпеку спілкування в повідомленнях. Батьківські сповіщення ввімкнено для облікових записів дітей віком до 12 років, але до цього будь -яке непристойне або неприйнятне зображення надсилається або отримується, дитина попереджається, що якщо вони продовжать щоб переглянути або надіслати зображення, їх батькам буде надіслано сповіщення, і якщо дитина продовжить надсилати або переглядати зображення після цього попередження, батьки отримують сповіщення. Для облікових записів дітей у віці 13-17 років дитину все ще попереджають і запитують, чи вони хотіли б переглянути або поділитися сексуальною фотографією, але батьки про це не повідомляються.


Чи означає це, що Apple перевірить усі фотографії, що зберігаються на моєму пристрої?

Ця функція стосується лише фотографій, які користувач вирішує завантажити в iCloud. Ця функція не працює з користувачами, у яких вимкнено фотографії iCloud, а також не працює з бібліотекою фотографій на вашому iPhone.


Чи завантажуються на мій пристрій зображення CSAM, щоб вони відповідали моїм зображенням?

Ні, зображення CSAM не зберігаються на пристрої та не надсилаються на нього. Замість реальних зображень Apple використовує нечитабельні хеші, які зберігаються на пристрої. Ці хеші - це рядки чисел, які представляють відомі образи CSAM, але їх неможливо прочитати або перетворити на нерелевантні зображення знову. Цей набір хешів зображень базується на зображеннях, отриманих та перевірених як CSAM організаціями з безпеки дітей. З новими програмами шифрування Apple може використовувати ці хеші для ідентифікації лише облікових записів iCloud, які зберігають партії фотографій, що відповідають відомим фотографіям CSAM, а потім лише зможуть ідентифікувати невідповідні дитячі фотографії, не розпізнаючи та не бачачи інших фотографій.


чому зараз?

Однією з найбільших проблем Apple є захист дітей та збереження конфіденційності користувачів. За допомогою нової функції Apple виявлятиме фотографії CSAM, які зберігаються в iCloud, і компанія нічого не дізнається про інші дані, що зберігаються на вашому пристрої.

Існуючі технології, на які покладаються інші компанії, сканують усі зображення користувачів, що зберігаються в хмарі. Це створює ризики конфіденційності для користувачів, але це відрізняється від функції Apple Photo Scan, наприклад, неможливості розпізнавання фотографій, якщо вони обидві не відповідають відомим фотографіям CSAM і не включені до облікового запису iCloud, який містить багато канонічних фотографій CSAM.


Чи можна систему виявлення зображень iCloud CSAM використовувати для виявлення інших речей?

Apple заявила, що розробка процесу запобігає цьому. Виявлення зображень CSAM призначене для зображень iCloud, так що система працює лише з хешами зображень CSAM, наданими NCMEC та іншими організаціями з безпеки дітей.

Цей набір хешів зображень базується на зображеннях, отриманих та перевірених як CSAM організаціями з безпеки дітей. Немає автоматизованої звітності до правоохоронних органів, і Apple проводить огляд людей перед тим, як подати свій звіт до Національного центру зниклих та експлуатованих дітей (NCMEC).

В результаті система розроблена лише для того, щоб повідомляти про фотографії, відомі як CSAM, у iCloud Photos. У більшості країн, включаючи Сполучені Штати, володіння цими зображеннями є злочином, і Apple зобов’язана повідомляти відповідні органи про будь -які випадки, про які нам стало відомо.


Чи можуть уряди змусити Apple додавати зображення, що не належать до CSAM, до файлу хеш-списку?

Apple відмовляється від таких вимог. Можливість виявлення CSAM призначена для виявлення лише відомих фотографій CSAM, збережених у фотографіях iCloud, які були ідентифіковані експертами NCMEC та іншими групами безпеки дітей.

Ми раніше стикалися з вимогами побудувати та опублікувати введені державою зміни, які підривають конфіденційність користувачів, і ми рішуче відхиляли ці вимоги. Ми і надалі відмовлятимемось від цього. Щоб було зрозуміло, ця технологія обмежується виявленням CSAM, що зберігається в iCloud, і ми не схвалимо жодного державного запиту, який може містити інші файли.

Крім того, Apple проводить огляд людей перед поданням звіту до NCMEC. Якщо система позначає зображення, які не відповідають відомим зображенням CSAM, обліковий запис не буде вимкнено і звіт не буде подано до NCMEC.


Чи можна налаштувати CSAM для націлювання на інші речі або конкретних людей?

Наш процес покликаний запобігти цьому. Хеші зображень, які використовуються для відповідності, взяті з відомих та існуючих зображень CSAM, які були отримані та перевірені організаціями з безпеки дітей, і той самий хеш зберігається в операційній системі кожного користувача iPhone та iPad, тому цільові атаки здійснюються лише проти конкретних осіб. завдяки нашому проекту та відсутності автоматизованої звітності до правоохоронних органів, Apple проводить огляд людини перед поданням свого звіту, і у випадку, якщо система, ймовірно, не позначатиме зображення, які не відповідають відомим зображенням CSAM, обліковий запис не буде вимкнено, і звіт не подаватиметься.


Чи можуть невинні люди помилитися через цю функцію?

Ні, система розроблена надзвичайно точно, і ймовірність того, що система неправильно позначить будь -який обліковий запис, становить менше одного на кожен трильйон облікових записів на рік. Крім того, щоразу, коли система позначає обліковий запис, Apple проводить огляд людини до подання звіту до NCMEC, і в результаті системні помилки чи атаки не призведуть до повідомлення про невинних.

Що ви думаєте про нову функцію Apple для виявлення неприйнятних зображень для дітей, розкажіть нам у коментарях

Джерело:

apple

مقالات ذات لل