過去数日間、Appleは次の理由で多くの批判で脚光を浴びてきました 画像スキャン機能 子供を保護し、子供を虐待または搾取することを防ぐために発売されたデバイス、またはCSAMイメージと呼ばれるもので、多くのプライバシー組織や専門家でさえ、この機能がハッカーや政府でさえも抜け穴に変わることについて懸念を表明しています。 iPhoneユーザーのプライバシーを侵害するために悪用する可能性があり、混乱や明確化を取り除き、物事を正しく説明するために。Appleは、FAQの形式で、新機能と舞台裏で何が起こっているかについてすべてを説明するファイルを立ち上げました。子供の安全機能について、そしてそれが本当にユーザーのプライバシーを脅かすかどうかについてすべてを学びましょう。

Appleは、子供の搾取に対する機能のプライバシー侵害の告発に対応します


iCloud写真のメッセージ保護とCSAMの違いは何ですか?

これらのXNUMXつの機能は異なり、メッセージの通信セキュリティは、メッセージアプリで性的に露骨な画像を送受信することから子供を保護するための追加のツールを親と子供に提供するように設計されているため、同じテクノロジーを使用しません。 ファミリーシェアリングで設定された子供用アカウントのメッセージアプリで送受信された写真に対してのみ機能し、デバイス上の写真を分析するため、メッセージのプライバシーは公開されません。写真を見たり送信したりしたい場合、特別な予防措置として、幼児は自分の安全のために、写真を見ると両親にメッセージが届くと言われることもあります。

XNUMX番目の機能であるiCloudのCSAMフォトスキャンは、既知のCSAM写真と一致する写真以外の写真に関する情報をAppleに提供することなく、CSAMをiCloudフォトから除外するように設計されています。 CSAM画像の所持は、米国を含むほとんどの国で違法です。 また、この機能は、iCloud Photosを使用して写真を保存することを選択したユーザーにのみ影響し、iCloudPhotosを使用することを選択しなかったユーザーには影響しません。 デバイス上の他のデータへの影響はなく、この機能はメッセージには適用されません。


メッセージで接続セキュリティを使用できるのは誰ですか?

メッセージの通信セキュリティは、iCloudでファミリーとして設定されたアカウントでのみ利用できます。 保護者または保護者は、家族向けの機能を有効にすることを選択する必要があります。保護者への通知は、12歳以下のお子様のアカウントの保護者または保護者のみが有効にできます。


これは、メッセージがAppleまたは法執行機関と共有されることを意味しますか?

もちろんそうではありません。メッセージのこの機能の結果として、Appleはメッセージの情報にアクセスできなくなります。 この機能は、Apple、NCMEC、または法執行機関と情報を共有しません。 メッセージの通信セキュリティ機能は、iCloudフォトスキャンのCSAM機能とは別のものです。


これはメッセージアプリのエンドツーエンド暗号化を破りますか?

いいえ。 これによってメッセージのプライバシーが侵害されることはなく、この機能の結果としてAppleが連絡先にアクセスすることはできなくなります。 連絡先セキュリティが有効になっているユーザーを含め、メッセージアプリのすべてのユーザーは、何を誰に送信するかを完全に制御できます。

 この機能がお子様のアカウントで有効になっている場合、デバイスはメッセージ内の画像を評価し、画像が不適切であると識別された場合に介入を提供します。これは不適切であり、Appleはメッセージにアクセスしたり、通知を妨害したり、写真を評価したりできません。


この機能は、虐待を受けた子供たちが助けを求めるのを防ぎますか?

接続セキュリティ機能は、メッセージで共有または受信された性的に露骨な画像にのみ適用され、テキストメッセージなど、被害者が助けを求めるために使用できる他のアプリとは関係ありません。助けを求める方法の説明。


子供たちに警告したり、子供たちに選択肢を与えたりすることなく、親に通知されますか?

いいえ。 いいえ; 保護者または保護者のアカウントは、メッセージの通信セキュリティを有効にするためにサインアップする必要があります保護者への通知は、12歳以下のお子様のアカウントで有効になっていますが、それ以前に、わいせつまたは不適切な画像が送受信されると、お子様は続行すると警告が表示されます画像を表示または送信するには、保護者に通知が送信されます。この警告の後も子供が画像を送信または表示し続けると、保護者に通知されます。13〜17歳の子供のアカウントの場合、子供は引き続き警告を受け、彼らは性的な写真を見たり共有したりしたいのですが、両親には通知されません。


これは、Appleが私のデバイスに保存されているすべての写真をチェックすることを意味しますか?

この機能は、ユーザーがiCloudにアップロードすることを選択した写真にのみ適用されます。この機能は、iCloud写真が無効になっているユーザーには機能せず、iPhoneのフォトライブラリでも機能しません。


CSAMイメージは、イメージと一致するようにデバイスにダウンロードされますか?

いいえ、CSAMイメージはデバイスに保存または送信されません。 Appleは、実際の画像の代わりに、デバイスに保存されている読み取り不可能なハッシュを使用します。 これらのハッシュは、既知のCSAMイメージを表す数字の文字列ですが、読み取ったり、無関係なイメージに再度変換したりすることはできません。 この一連の画像ハッシュは、児童安全組織によってCSAMとして取得および検証された画像に基づいています。 新しい暗号化アプリケーションでは、Appleはこれらのハッシュを使用して、既知のCSAM写真と一致する写真のバッチを保存するiCloudアカウントのみを識別し、他の写真を認識または表示せずに不適切な子供の写真のみを識別できます。


なぜ今なのか?

Appleの大きな課題のXNUMXつは、ユーザーのプライバシーを保護しながら子供を保護することです。 新機能により、AppleはiCloudに保存されているCSAM写真を検出し、会社はデバイスに保存されている他のデータについて何も学習しません。

他社が依存している既存のテクノロジーは、クラウドに保存されているすべてのユーザー画像をスキャンします。 これはユーザーにプライバシーリスクをもたらしますが、既知のCSAM写真と一致し、多くの正規のCSAM写真を含むiCloudアカウントに含まれていない限り、写真を認識できないなど、Appleのフォトスキャン機能とは異なります。


iCloudのCSAM画像検出システムを使用して他のものを検出できますか?

Appleは、これを防ぐためのプロセスの設計について述べた。 CSAM画像検出はiCloud画像用に設計されているため、システムはNCMECやその他の児童安全組織が提供するCSAM画像ハッシュでのみ機能します。

この一連の画像ハッシュは、児童安全組織によってCSAMとして取得および検証された画像に基づいています。 法執行機関への自動報告はありません。Appleは、全米行方不明・搾取児童センター(NCMEC)に報告を提出する前に、人間によるレビューを実施します。

その結果、システムはiCloudPhotosでCSAMと呼ばれる写真のみを報告するように設計されています。 米国を含むほとんどの国では、これらの画像の所持は犯罪であり、Appleは私たちが気付いたすべての事件を適切な当局に報告する義務があります。


政府はAppleに非CSAM画像をハッシュリストファイルに追加するように強制できますか?

Appleはそのような要求を拒否します。 CSAM検出機能は、NCMECおよびその他の子供の安全グループの専門家によって識別されたiCloudPhotosに保存されている既知のCSAM写真のみを検出するように設計されています。

これまで、ユーザーのプライバシーを損なう政府による変更を構築して公開するという要求に直面しており、これらの要求を断固として拒否してきました。 今後も拒否していきます。 明確にするために、このテクノロジーはiCloudに保存されているCSAMの検出に限定されており、他のファイルを含む可能性のある政府の要求は承認しません。

さらに、AppleはNCMECにレポートを提出する前に、人間によるレビューを実施します。 システムが既知のCSAMイメージと一致しないイメージにフラグを立てた場合、アカウントは無効にならず、レポートはNCMECに送信されません。


CSAMは、他のものや特定の人々をターゲットにするようにカスタマイズできますか?

私たちのプロセスは、これが起こらないように設計されています。 照合に使用される画像ハッシュは、子供の安全組織によって取得および検証された既知および既存のCSAM画像から取得され、同じハッシュが各iPhoneおよびiPadユーザーのオペレーティングシステムに保存されるため、標的型攻撃は特定の個人に対してのみ行われます。私たちの設計によって可能になり、法執行機関への自動レポートはありません。Appleはレポートを送信する前に人間によるレビューを行います。システムが既知のCSAM画像と一致しない画像にフラグを立てる可能性が低い場合、アカウントは無効になり、レポートは提出されません。


この機能が原因で、罪のない人が失敗する可能性はありますか?

いいえ、システムは非常に正確に設計されており、システムが特定のアカウントに誤ってフラグを立てる確率は、年間XNUMX兆アカウントにXNUMXつ未満です。さらに、システムによってアカウントにフラグが立てられるたびに、Appleは人間によるレビューを実施します。 NCMECにレポートを送信する前に、その結​​果、システムエラーまたは攻撃によって無実のレポートが作成されることはありません。

子供に不適切な画像を検出するAppleの新機能についてどう思いますか、コメントで教えてください

動名詞:

リンゴ

関連記事