児童の性的虐待に対抗するために、Appleは米国のiPhoneにプログラムをインストールして、特に児童虐待や搾取を含む違法な画像を検索する予定ですが、多くの専門家は、これがユーザーのプライバシーを脅かす可能性があると考えています。これにより、世界中のユーザーが何百万ものデバイスを監視できるようになる可能性があります。

Appleの新しいシステム

Appleは、今週初めに一部のアメリカの学者に「neuralMatch」と呼んだ提案されたシステムの詳細を説明し、仮想会議について説明したXNUMX人のセキュリティ研究者によると、Appleのプログラムは今週より広く実施される予定です。
NeuralMatchは、違法な画像が検出されたと思われる場合に人間のレビュー担当者のチームに事前に警告する自動システムです。その後、レビュー担当者は法執行機関に連絡し、デバイスの所有者を報告します。
アップルと法執行機関

AppleやFacebookなど、自社の製品やサービスでの暗号化の使用の増加を提唱しているテクノロジー企業と法執行機関との間の緊張は、Appleが2016年に容疑者のiPhoneへのアクセスでFBIを支援することを拒否して以来激しさを増しています。銃乱射事件。カリフォルニア州サンベルナルディーノ。
ユーザーであれ当局であれ、すべての関係者を満足させるために、Appleは新しいニューラルマッチシステムを発表しました。これは、顧客のプライバシーを保護するという約束と、テロを含む犯罪捜査へのさらなる支援を求める政府や法執行機関からの永続的な要求との間の妥協点です。と児童ポルノ。
ニューラルマッチはどのように機能しますか?

NeuralMatchアルゴリズムは、アメリカのユーザーのiPhoneに保存されている写真を継続的にスキャンし、iCloudバックアップシステムにアップロードします。子供の性的虐待の既知の画像。
Appleは、米国の非営利のNational Center for Missing and ExploitedChildrenによって収集された約200000件の性的暴行画像についてシステムをトレーニングしました。
計画について説明を受けた人々によると、米国のiCloudにアップロードされたすべての写真には、疑わしいかどうかを示す「セキュリティバウチャー」が与えられ、特定の数の写真が疑わしいとマークされると、それが有効になりますAppleはすべての写真を解読します。疑わしい場合、違法な場合は直ちに当局に報告されます。
アップルとプライバシー

Appleはプライバシーがすべてのユーザーの権利であると信じているかもしれません、そして子供の搾取と虐待の問題に関する善意にもかかわらず、多くのセキュリティ専門家はAppleが世界中の政府が市民の個人データへのアクセスを求めることを可能にする危険を冒すかもしれないと心配しています。元の目標を超えてください。
「Appleのシステムは他のターゲット画像やテキストを探すように操作される可能性があるため、大量の監視につながるため、これは絶対に恐ろしい考えです。そして最も重要なことに、Appleの考えは、他のテクノロジー企業に同様の技術を使用するよう圧力をかけるでしょう。」ケンブリッジ大学のセキュリティ工学教授であるロスアンダーソンは言います。
以前FacebookとDeliverooで働いていたセキュリティ研究者でプライバシー活動家のAlecMoffitt氏は、Appleの動きは「まったく予想外であり、プライバシーを大幅に後退させた」と語った。
この問題についてツイートした最初の研究者であると信じられているジョンズホプキンス大学のセキュリティ教授であるマシューグリーンも、政府が他の企業に同じことをするよう圧力をかけるので、アップルがしたことはダムを壊すだろうと信じています。
サリー大学のコンピューターセキュリティ教授であるAlanWoodward氏は、次のように述べています。プライバシーを保護するために採用できる方法。」
動名詞:



26تعليق