Appleはその機能を開始する予定です 新しい子供の安全CSAM 今年後半、特にiOS 15の発売に伴い、開発者のXNUMX人は、この機能が古いバージョンのiPhoneオペレーティングシステムで機能するアルゴリズムを見つけ、このテクノロジーの欠陥と技術的な欠陥を発見したと述べました。 では、この欠陥は何であり、Appleの対応はどうでしたか?

Appleの児童虐待防止技術に欠陥が発見され、Appleは対応


CSAM画像分析およびスキャン機能

Redditユーザーは、iOS14.3内でCSAM画像を検出するために使用されるNeuralHashアルゴリズムのバージョンを発見したと述べています。

Appleの回答は次のとおりです。抽出されたバージョンは最新ではなく、使用されません。

AsuharietYgvarとして知られる開発者は、iOS 14.3内に埋め込まれたNerualHashコードを見つけることができ、コードをリバースエンジニアリングし、これらのコードの画像を渡すことでテストできるPythonで動作するモデルを再構築したと述べました。

開発者は、このアルゴリズムは画像の圧縮やサイズ変更にだまされていないが、画像のトリミングや回転のプロセスを検出できないと主張しています。 Pythonの言語を使用して、GitHubプラットフォームのユーザーは、アルゴリズムがどのように機能するか、iPhoneの所有者を脅かすような方法で悪用および悪用される可能性があるかどうかを調査し始めました。したがって、理論的には、ハッカーはこれらの非常に自然に見える写真をデバイスの壁紙または通常の風景としてAppleユーザーに送信し、アルゴリズムを実行してトラップし、問題を引き起こす可能性があります。


最終バージョンではありません

これらの欠点にもかかわらず、Appleは何年もの間CSAM画像検出アルゴリズムを構築してきたため、発見されたアルゴリズムは最終バージョンではないと言えます。したがって、テスト用のコードのいくつかのバージョンがあるはずです。

偽の写真を作成してiPhoneユーザーに送信してトラップする可能性については、Appleはクラウドと同期しない限り写真を公開せず、写真を確認するための人間によるレビューを忘れないため、それほど単純ではありません。実際には児童虐待が含まれています。これはすべて、理論的には真実であると想定されているが、実際には困難な攻撃を意味します。


Appleは答えた

Appleは声明の中で、iOS 14.3で発見されたNeuralHashコードは最終バージョンではなく、iOS 15ベータバージョンでのCSAMデータベースまたはマッチングアルゴリズムの存在をまだ発見していないと述べましたが、この機能はシステムの登場後のフルバージョンiOS15を新しく起動します。

Appleの新しい子供の安全機能についてどう思いますか、そしてそれが悪用される恐れがありますか、コメントで教えてください

動名詞:

バイス

関連記事