Selama beberapa hari terakhir, Apple telah menjadi sorotan dengan banyak kritik karena Fitur pemindaian gambar Dengan perangkatnya, yang diluncurkan untuk melindungi anak-anak dan mencegah penyalahgunaan atau eksploitasi, atau yang dikenal sebagai gambar CSAM, dan banyak organisasi privasi dan bahkan para ahli telah menyatakan keprihatinan tentang transformasi fitur ini menjadi celah yang dapat dieksploitasi oleh peretas atau bahkan pemerintah. untuk melanggar privasi pengguna iPhone, dan untuk menghilangkan kebingungan atau Mengklarifikasi dan menjelaskan semuanya dengan benar. Apple meluncurkan file dalam bentuk FAQ yang menjelaskan segala sesuatu tentang fitur barunya dan apa yang terjadi di balik layar, dan mari kita pelajari semuanya tentang fitur keamanan anak dan apakah itu benar-benar mengancam privasi pengguna atau tidak.

Apple menanggapi tuduhan pelanggaran privasi dalam fitur anti-pelecehan anak


Apa perbedaan antara Perlindungan Pesan dan CSAM di Foto iCloud?

Kedua fitur ini berbeda dan tidak menggunakan teknologi yang sama karena Keamanan Komunikasi dalam Pesan dirancang untuk memberikan alat tambahan kepada orang tua dan anak-anak untuk membantu melindungi anak-anak mereka dari mengirim dan menerima gambar seksual eksplisit di aplikasi Pesan. Ini hanya berfungsi pada foto yang dikirim atau diterima di aplikasi Pesan untuk akun anak-anak yang diatur dengan Keluarga Berbagi dan kemudian menganalisis foto di perangkat dan dengan demikian tidak membahayakan privasi pesan. t ingin melihat atau mengirim gambar dan sebagai tindakan pencegahan ekstra, anak kecil juga dapat diberitahu bahwa untuk keselamatan mereka sendiri, orang tua mereka akan menerima pesan jika mereka melihatnya.

Fitur kedua, Pemindaian Foto CSAM di iCloud, dirancang untuk menjauhkan CSAM dari Foto iCloud tanpa memberikan informasi kepada Apple tentang foto apa pun selain yang cocok dengan foto CSAM yang diketahui. Kepemilikan gambar CSAM adalah ilegal di sebagian besar negara, termasuk Amerika Serikat. Selain itu, fitur ini hanya memengaruhi pengguna yang telah memilih untuk menggunakan Foto iCloud untuk menyimpan foto mereka dan tidak memengaruhi pengguna yang tidak memilih untuk menggunakan Foto iCloud. Tidak ada efek pada data lain di perangkat dan fitur ini tidak berlaku untuk pesan.


Siapa yang dapat menggunakan keamanan koneksi dalam pesan?

Keamanan komunikasi di Pesan hanya tersedia untuk akun yang diatur sebagai keluarga di iCloud. Orang tua atau wali harus memilih untuk mengaktifkan fitur untuk keluarga dan pemberitahuan orang tua hanya dapat diaktifkan oleh orang tua atau wali untuk akun anak-anak berusia 12 tahun ke bawah.


Apakah ini berarti pesan akan dibagikan dengan Apple atau lembaga penegak hukum?

Tentu saja tidak, Apple tidak akan pernah dapat mengakses informasi di Pesan karena fitur ini di Pesan. Fitur ini tidak membagikan informasi apa pun dengan Apple, NCMEC, atau lembaga penegak hukum. Fitur keamanan komunikasi di Pesan terpisah dari fitur CSAM untuk pemindaian foto iCloud.


Apakah ini merusak enkripsi ujung ke ujung di aplikasi Pesan?

Tidak. Ini tidak mengarah pada pelanggaran privasi untuk pesan, dan Apple tidak akan pernah dapat mengakses kontak Anda karena fitur ini. Setiap pengguna aplikasi Pesan, termasuk mereka yang mengaktifkan keamanan kontak, memiliki kontrol penuh atas apa yang dikirim dan kepada siapa.

 Jika fitur tersebut diaktifkan untuk akun anak, perangkat akan mengevaluasi gambar dalam pesan dan memberikan intervensi jika gambar diidentifikasi sebagai tidak pantas. Tidak pantas dan Apple tidak dapat mengakses pesan, mengganggu pemberitahuan, atau menilai foto.


Apakah fitur ini mencegah anak-anak korban kekerasan mencari bantuan?

Fitur keamanan koneksi hanya berlaku untuk gambar seksual eksplisit yang dibagikan atau diterima dalam pesan dan tidak ada hubungannya dengan aplikasi lain yang dapat digunakan korban untuk mencari bantuan, termasuk pesan teks dan pencarian. Petunjuk tentang cara mencari bantuan.


Akankah orang tua diberitahu tanpa memperingatkan anak-anak dan memberi mereka pilihan?

Tidak. Oh tidak; Akun orang tua atau wali harus mendaftar untuk mengaktifkan keamanan komunikasi dalam pesan Pemberitahuan orang tua diaktifkan untuk akun anak-anak berusia 12 tahun atau lebih muda tetapi sebelum itu, gambar cabul atau tidak pantas dikirim atau diterima, anak tersebut diperingatkan bahwa jika mereka terus melakukannya Melihat atau mengirim gambar, pemberitahuan akan dikirim ke orang tua mereka dan jika anak terus mengirim atau melihat gambar setelah peringatan ini, orang tua diberitahu Untuk akun anak usia 13-17, anak masih diperingatkan dan ditanya apakah mereka ingin melihat atau Berbagi foto seksual, tetapi orang tua tidak diberitahu.


Apakah ini berarti Apple akan memeriksa semua foto yang tersimpan di perangkat saya?

Fitur ini hanya berlaku untuk foto yang dipilih pengguna untuk diunggah ke iCloud.Fitur ini tidak berfungsi dengan pengguna yang menonaktifkan foto iCloud, dan juga tidak berfungsi pada perpustakaan foto di iPhone Anda.


Apakah gambar CSAM yang diunduh ke perangkat saya cocok dengan gambar saya?

Tidak, gambar CSAM tidak disimpan atau dikirim ke perangkat. Alih-alih gambar yang sebenarnya, Apple menggunakan hash yang tidak dapat dibaca yang disimpan di perangkat. Hash ini adalah string angka yang mewakili gambar CSAM yang diketahui, tetapi tidak dapat dibaca atau dikonversi ke gambar yang tidak relevan lagi. Kumpulan hash gambar ini didasarkan pada gambar yang diperoleh dan divalidasi sebagai CSAM oleh organisasi keselamatan anak. Dengan aplikasi enkripsi baru, Apple dapat menggunakan hash ini untuk mengidentifikasi hanya akun iCloud yang menyimpan kumpulan foto yang cocok dengan foto CSAM yang diketahui dan kemudian hanya dapat mengidentifikasi foto anak-anak yang tidak pantas dan tidak mengenali atau melihat foto lainnya.


kenapa sekarang?

Salah satu tantangan besar Apple adalah membantu melindungi anak-anak sekaligus menjaga privasi pengguna. Dengan fitur baru, Apple akan mendeteksi foto CSAM yang disimpan di iCloud dan perusahaan tidak akan mempelajari apa pun tentang data lain yang tersimpan di perangkat Anda.

Teknologi yang ada yang diandalkan oleh perusahaan lain memindai semua gambar pengguna yang disimpan di cloud. Ini menciptakan risiko privasi bagi pengguna tetapi berbeda dengan fitur Pemindaian Foto Apple seperti tidak dapat mengenali foto kecuali keduanya cocok dengan foto CSAM yang diketahui dan disertakan dalam akun iCloud yang menyertakan banyak foto CSAM kanonik.


Bisakah sistem deteksi gambar CSAM iCloud digunakan untuk mendeteksi hal lain?

Apple mengatakan bahwa proses desain untuk mencegah hal ini terjadi. Deteksi gambar CSAM dirancang untuk gambar iCloud sehingga sistem hanya berfungsi dengan hash gambar CSAM yang disediakan oleh NCMEC dan organisasi keselamatan anak lainnya.

Kumpulan hash gambar ini didasarkan pada gambar yang diperoleh dan divalidasi sebagai CSAM oleh organisasi keselamatan anak. Tidak ada pelaporan otomatis ke penegak hukum, dan Apple melakukan tinjauan manusia sebelum mengirimkan laporannya ke Pusat Nasional untuk Anak Hilang dan Tereksploitasi (NCMEC).

Akibatnya, sistem hanya dirancang untuk melaporkan foto yang dikenal sebagai CSAM di Foto iCloud. Di sebagian besar negara, termasuk Amerika Serikat, kepemilikan gambar-gambar ini adalah kejahatan dan Apple berkewajiban untuk melaporkan setiap kasus yang kami ketahui kepada pihak berwenang yang sesuai.


Bisakah pemerintah memaksa Apple untuk menambahkan gambar non-CSAM ke file daftar hash?

Apple akan menolak tuntutan tersebut. Kemampuan deteksi CSAM dirancang untuk mendeteksi hanya foto CSAM yang diketahui yang disimpan di Foto iCloud yang telah diidentifikasi oleh para ahli di NCMEC dan grup keselamatan anak lainnya.

Kami telah menghadapi tuntutan untuk membuat dan memublikasikan perubahan yang diberlakukan pemerintah yang merusak privasi pengguna sebelumnya, dan kami dengan tegas menolak tuntutan ini. Kami akan terus menolaknya di masa depan. Untuk lebih jelasnya, teknologi ini terbatas untuk mendeteksi CSAM yang disimpan di iCloud dan kami tidak akan menyetujui permintaan pemerintah apa pun yang mungkin melibatkan file lain.

Selanjutnya, Apple melakukan tinjauan manusia sebelum mengirimkan laporan ke NCMEC. Jika sistem menandai gambar yang tidak cocok dengan gambar CSAM yang diketahui, akun tidak akan dinonaktifkan dan tidak ada laporan yang akan dikirimkan ke NCMEC.


Bisakah CSAM dikustomisasi untuk menargetkan hal-hal lain atau orang tertentu?

Proses kami dirancang untuk mencegah hal ini terjadi. Hash gambar yang digunakan untuk pencocokan berasal dari gambar CSAM yang diketahui dan yang sudah ada yang diperoleh dan divalidasi oleh organisasi keselamatan anak dan hash yang sama disimpan di sistem operasi setiap pengguna iPhone dan iPad, jadi serangan yang ditargetkan hanya terhadap individu tertentu Tidak diaktifkan oleh desain kami dan tidak ada pelaporan otomatis ke penegak hukum, Apple melakukan tinjauan manusia sebelum mengirimkan laporannya, dan jika sistem tidak mungkin menandai gambar yang tidak cocok dengan gambar CSAM yang diketahui, akun tidak akan dinonaktifkan dan tidak ada laporan akan diajukan.


Bisakah orang yang tidak bersalah salah karena fiturnya?

Tidak, sistem dirancang untuk sangat akurat, dan kemungkinan sistem salah menandai akun tertentu kurang dari satu dalam setiap triliun akun per tahun. Selain itu, setiap kali akun ditandai oleh sistem, Apple melakukan tinjauan manusia sebelum Menyerahkan laporannya ke NCMEC dan akibatnya, kesalahan atau serangan sistem tidak akan menghasilkan pelaporan yang tidak bersalah.

Apa pendapat Anda tentang fitur baru Apple untuk mendeteksi gambar yang tidak pantas untuk anak-anak, beri tahu kami di komentar

Sumber:

apel

Artikel terkait