В последние дни Apple была в центре внимания с большим количеством критики из-за Функция сканирования изображения Со своими устройствами, которые он запустил для защиты детей и предотвращения злоупотреблений или эксплуатации ими, или так называемых образов CSAM, и многие организации по обеспечению конфиденциальности и даже эксперты выразили озабоченность по поводу превращения этой функции в лазейку, которую хакеры или даже правительства может использоваться для нарушения конфиденциальности пользователей iPhone, а также для того, чтобы устранить любую путаницу или уточнить и объяснить вещи правильно. Apple запустила файл в виде часто задаваемых вопросов, в котором объясняется все о ее новой функции и о том, что происходит за кулисами, и давайте узнайте все о функции безопасности детей и о том, действительно ли она угрожает конфиденциальности пользователей.

Apple отвечает на обвинения в нарушении конфиденциальности с помощью функции по борьбе с жестоким обращением с детьми


В чем разница между Защитой сообщений и CSAM в Фото iCloud?

Эти две функции отличаются друг от друга и не используют одну и ту же технологию, поскольку безопасность связи в сообщениях предназначена для предоставления родителям и детям дополнительных инструментов, помогающих защитить своих детей от отправки и получения изображений сексуального характера в приложении «Сообщения». Он работает только с фотографиями, отправленными или полученными в приложении «Сообщения» для детских учетных записей, настроенных с помощью функции «Семейный доступ», а затем анализирует фотографии на устройстве и, таким образом, не раскрывает конфиденциальность сообщений. Полезно и обнадеживает, что все в порядке, если он этого не делает » не хотят просматривать или отправлять изображение, и в качестве дополнительной меры предосторожности маленьким детям также можно сказать, что для их собственной безопасности их родители получат сообщение, если они его увидят.

Вторая функция, сканирование фотографий CSAM в iCloud, предназначена для предотвращения доступа CSAM к фотографиям iCloud без предоставления Apple информации о каких-либо фотографиях, кроме тех, которые соответствуют известным фотографиям CSAM. Хранение изображений CSAM является незаконным в большинстве стран, включая США. Кроме того, эта функция влияет только на пользователей, которые выбрали использование фотографий iCloud для хранения своих фотографий, и не влияет на пользователей, которые не выбрали использование фотографий iCloud. Это не влияет на другие данные на устройстве, и эта функция не применяется к сообщениям.


Кто может использовать безопасность соединения в сообщениях?

Безопасность связи в Сообщениях доступна только для учетных записей, созданных как семьи в iCloud. Родители или опекуны должны включить эту функцию для семьи, а уведомления родителей могут быть включены только родителями или опекунами учетных записей для детей в возрасте 12 лет и младше.


Означает ли это, что сообщения будут переданы Apple или правоохранительным органам?

Конечно, нет, Apple никогда не сможет получить доступ к информации в сообщениях в результате этой функции в сообщениях. Эта функция не передает никакой информации Apple, NCMEC или правоохранительным органам. Функция безопасности связи в Сообщениях отличается от функции CSAM для сканирования фотографий iCloud.


Нарушает ли это сквозное шифрование в приложении "Сообщения"?

Нет. Это не приводит к нарушению конфиденциальности сообщений, и Apple никогда не сможет получить доступ к вашим контактам в результате этой функции. Любой пользователь приложения Сообщения, включая тех, у кого включена защита контактов, имеет полный контроль над тем, что и кому отправляется.

 Если эта функция включена для учетной записи ребенка, устройство будет оценивать изображения в сообщениях и предпринимать меры, если изображение определяется как неприемлемое. Это неприемлемо, и Apple не может получить доступ к сообщениям, препятствовать отправке уведомлений или оценивать фотографии.


Помешает ли эта функция детям, подвергшимся насилию, обращаться за помощью?

Функция безопасности соединения применяется только к изображениям сексуального характера, передаваемым или полученным в сообщениях, и не имеет ничего общего с другими приложениями, которые жертвы могут использовать для поиска помощи, включая текстовые сообщения. Инструкции о том, как обращаться за помощью.


Будут ли уведомлены родители без предупреждения детей и предоставления им выбора?

Нет. О нет; Учетные записи родителей или опекунов должны зарегистрироваться, чтобы включить безопасность связи в сообщениях. Родительские уведомления включены для учетных записей детей в возрасте 12 лет или младше, но до этого отправляются или принимаются любые непристойные или неприемлемые изображения, ребенок предупреждается, что если они продолжат для просмотра или отправки изображения их родителям будет отправлено уведомление, и если ребенок продолжит отправлять или просматривать изображение после этого предупреждения, родители будут уведомлены. Для учетных записей детей в возрасте 13-17 лет ребенок по-прежнему получает предупреждение и спрашивает, они хотели бы просмотреть или поделиться фотографией сексуального характера, но родители не уведомлены.


Означает ли это, что Apple проверит все фотографии, хранящиеся на моем устройстве?

Эта функция применяется только к фотографиям, которые пользователь выбирает для загрузки в iCloud. Эта функция не работает с пользователями, у которых отключены фотографии iCloud, а также не работает с библиотекой фотографий на вашем iPhone.


Загружаются ли изображения CSAM на мое устройство, чтобы они соответствовали моим изображениям?

Нет, изображения CSAM не сохраняются и не отправляются на устройство. Вместо реальных изображений Apple использует нечитаемые хэши, которые хранятся на устройстве. Эти хэши представляют собой строки чисел, которые представляют известные образы CSAM, но не могут быть снова прочитаны или преобразованы в нерелевантные изображения. Этот набор хэшей изображений основан на изображениях, полученных и подтвержденных организациями по безопасности детей как CSAM. С помощью новых приложений для шифрования Apple может использовать эти хэши для идентификации только учетных записей iCloud, в которых хранятся партии фотографий, которые соответствуют известным фотографиям CSAM, и только после этого сможет идентифицировать неподходящие детские фотографии, не распознавая и не видя никаких других фотографий.


почему сейчас?

Одна из больших задач Apple - помочь защитить детей при сохранении конфиденциальности пользователей. С помощью новой функции Apple обнаружит фотографии CSAM, хранящиеся в iCloud, и компания ничего не узнает о других данных, хранящихся на вашем устройстве.

Существующие технологии, на которые полагаются другие компании, сканируют все пользовательские изображения, хранящиеся в облаке. Это создает риски для конфиденциальности для пользователей, но отличается от функции сканирования фотографий Apple, такой как невозможность распознавать фотографии, если они не совпадают с известными фотографиями CSAM и не включены в учетную запись iCloud, которая включает множество канонических фотографий CSAM.


Можно ли использовать систему обнаружения изображений CSAM iCloud для обнаружения других вещей?

Apple заявила, что дизайн процесса, чтобы этого не произошло. Обнаружение изображений CSAM разработано для изображений iCloud, поэтому система работает только с хэшами изображений CSAM, предоставленными NCMEC и другими организациями, занимающимися безопасностью детей.

Этот набор хэшей изображений основан на изображениях, полученных и проверенных организациями по безопасности детей как CSAM. Автоматической отчетности в правоохранительные органы не существует, и Apple проводит проверку на людях перед отправкой отчета в Национальный центр по делам пропавших без вести и эксплуатируемых детей (NCMEC).

В результате система предназначена только для сообщения о фотографиях, известных как CSAM в iCloud Photos. В большинстве стран, включая США, хранение этих изображений является преступлением, и Apple обязана сообщать обо всех известных нам случаях в соответствующие органы.


Могут ли правительства заставить Apple добавлять изображения, не относящиеся к CSAM, в файл хеш-списка?

Apple откажется от любых таких требований. Функция обнаружения CSAM предназначена для обнаружения только известных фотографий CSAM, хранящихся в iCloud Photos, которые были идентифицированы экспертами NCMEC и других групп по безопасности детей.

Раньше мы сталкивались с требованиями разработать и опубликовать навязанные правительством изменения, которые подрывают конфиденциальность пользователей, и мы категорически отвергали эти требования. Мы продолжим отказываться от него в будущем. Чтобы было ясно, эта технология ограничивается обнаружением CSAM, хранящегося в iCloud, и мы не будем одобрять какие-либо правительственные запросы, которые могут включать другие файлы.

Кроме того, Apple проводит проверку человеком перед отправкой отчета в NCMEC. Если система помечает изображения, которые не соответствуют известным изображениям CSAM, учетная запись не будет отключена, и в NCMEC не будет отправлен отчет.


Можно ли настроить CSAM для других целей или конкретных людей?

Наш процесс разработан, чтобы этого не произошло. Хэши изображений, используемые для сопоставления, берутся из известных и существующих образов CSAM, которые были получены и проверены организациями, занимающимися безопасностью детей, и один и тот же хеш хранится в операционной системе каждого пользователя iPhone и iPad, поэтому целевые атаки проводятся только против определенных лиц. Благодаря нашему дизайну и отсутствию автоматической отчетности в правоохранительные органы, Apple проводит проверку человеком перед отправкой своего отчета, и в случае, если система вряд ли будет отмечать изображения, не совпадающие с известными изображениями CSAM, учетная запись не будет отключен, и отчет не будет отправлен.


Могут ли невинные люди ошибиться из-за этой функции?

Нет, система спроектирована так, чтобы быть чрезвычайно точной, и вероятность того, что система неправильно пометит любую учетную запись, составляет менее одного на каждый триллион учетных записей в год. Кроме того, каждый раз, когда учетная запись помечается системой, Apple проводит проверку человеком. перед отправкой отчета в NCMEC, и в результате системные ошибки или атаки не приведут к сообщению о невиновных.

Что вы думаете о новой функции Apple по обнаружению неприемлемых изображений для детей, расскажите нам в комментариях

المصدر:

яблоко

Статьи по теме