boot ulang

Apple diperkirakan akan meluncurkan fiturnya CSAM Keselamatan Anak Baru Akhir tahun ini, khususnya dengan peluncuran iOS 15, tetapi salah satu pengembang mengatakan bahwa mereka menemukan algoritme yang digunakan fitur tersebut untuk bekerja di versi sistem operasi iPhone yang lebih lama dan menemukan cacat dan cacat teknis dalam teknologi ini. Lalu apa cacatnya ini dan bagaimana tanggapan Apple?

Cacat telah ditemukan dalam teknologi anti-pelecehan anak Apple, dan Apple merespons


Analisis gambar CSAM dan fitur pemindaian

Seorang pengguna Reddit mengatakan dia menemukan versi algoritma NeuralHash yang digunakan untuk mendeteksi gambar CSAM dalam iOS 14.3.

Tanggapan Apple adalah: Versi yang diekstraksi tidak mutakhir dan tidak akan digunakan.

Pengembang yang dikenal sebagai AsuharietYgvar dapat menemukan kode NerualHash yang terkubur di dalam iOS 14.3 dan mengatakan bahwa ia merekayasa balik kode tersebut dan merekonstruksi model kerja dengan Python yang dapat diuji dengan mengirimkan gambar kode-kode ini.

Pengembang mengklaim bahwa algoritme ini tidak tertipu oleh kompresi atau pengubahan ukuran gambar tetapi tidak dapat mendeteksi proses memotong atau memutar gambar. Menggunakan bahasa Python, pengguna platform GitHub mulai memeriksa cara kerja algoritme dan apakah itu dapat disalahgunakan dan dieksploitasi dengan cara yang mengancam pemilik iPhone. Foto yang disalahgunakan dan sama sekali tidak bersalah tetapi menipu kode Apple dan menghasilkan kecocokan dengan kode CSAM , sehingga secara teori, seorang peretas dapat mengirim foto-foto yang tampak sangat alami ini sebagai wallpaper perangkat Anda atau lanskap normal kepada pengguna Apple untuk mencoba menjalankan algoritme dan menjebaknya serta menyebabkan masalah bagi mereka.


Bukan versi final

Terlepas dari kekurangan ini, dapat dikatakan bahwa algoritma yang ditemukan bukanlah versi final karena Apple telah membangun algoritma pendeteksian gambar CSAM selama bertahun-tahun sehingga seharusnya ada beberapa versi kode untuk pengujian.

Adapun kemungkinan membuat foto palsu dan mengirimkannya ke pengguna iPhone untuk menjebak mereka, tidak sesederhana itu, karena Apple tidak mengungkapkan foto kecuali mereka disinkronkan dengan cloud dan jangan lupa tinjauan manusia untuk memastikan bahwa foto sebenarnya mengandung kekerasan terhadap anak, semua ini berarti bahwa serangan yang dianggap benar secara teori tetapi sulit dalam praktiknya.


Apple menanggapi

Apple mengatakan dalam sebuah pernyataan bahwa kode NeuralHash yang ditemukan di iOS 14.3 bukanlah versi final, juga belum ada yang menemukan keberadaan database CSAM atau algoritma yang cocok di iOS 15 versi beta, tetapi fitur tersebut diharapkan akan diluncurkan pada versi lengkapnya setelah munculnya sistem Peluncuran baru iOS 15.

Apa pendapat Anda tentang fitur keselamatan anak baru Apple, dan apakah ada ketakutan bahwa itu dapat disalahgunakan, beri tahu kami di komentar

Sumber:

wakil

Artikel terkait