Selama beberapa hari terakhir, Apple telah menjadi sorotan dengan banyak kritik karena Fitur pemindaian gambar Dengan perangkatnya, yang diluncurkan untuk melindungi anak-anak dan mencegah penyalahgunaan atau eksploitasi, atau yang dikenal sebagai gambar CSAM, dan banyak organisasi privasi dan bahkan para ahli telah menyatakan keprihatinan tentang transformasi fitur ini menjadi celah yang dapat dieksploitasi oleh peretas atau bahkan pemerintah. untuk melanggar privasi pengguna iPhone, dan untuk menghilangkan kebingungan atau Mengklarifikasi dan menjelaskan semuanya dengan benar. Apple meluncurkan file dalam bentuk FAQ yang menjelaskan segala sesuatu tentang fitur barunya dan apa yang terjadi di balik layar, dan mari kita pelajari semuanya tentang fitur keamanan anak dan apakah itu benar-benar mengancam privasi pengguna atau tidak.
Apa perbedaan antara Perlindungan Pesan dan CSAM di Foto iCloud?
Kedua fitur ini berbeda dan tidak menggunakan teknologi yang sama karena Keamanan Komunikasi dalam Pesan dirancang untuk memberikan alat tambahan kepada orang tua dan anak-anak untuk membantu melindungi anak-anak mereka dari mengirim dan menerima gambar seksual eksplisit di aplikasi Pesan. Ini hanya berfungsi pada foto yang dikirim atau diterima di aplikasi Pesan untuk akun anak-anak yang diatur dengan Keluarga Berbagi dan kemudian menganalisis foto di perangkat dan dengan demikian tidak membahayakan privasi pesan. t ingin melihat atau mengirim gambar dan sebagai tindakan pencegahan ekstra, anak kecil juga dapat diberitahu bahwa untuk keselamatan mereka sendiri, orang tua mereka akan menerima pesan jika mereka melihatnya.
Fitur kedua, Pemindaian Foto CSAM di iCloud, dirancang untuk menjauhkan CSAM dari Foto iCloud tanpa memberikan informasi kepada Apple tentang foto apa pun selain yang cocok dengan foto CSAM yang diketahui. Kepemilikan gambar CSAM adalah ilegal di sebagian besar negara, termasuk Amerika Serikat. Selain itu, fitur ini hanya memengaruhi pengguna yang telah memilih untuk menggunakan Foto iCloud untuk menyimpan foto mereka dan tidak memengaruhi pengguna yang tidak memilih untuk menggunakan Foto iCloud. Tidak ada efek pada data lain di perangkat dan fitur ini tidak berlaku untuk pesan.
Siapa yang dapat menggunakan keamanan koneksi dalam pesan?
Keamanan komunikasi di Pesan hanya tersedia untuk akun yang diatur sebagai keluarga di iCloud. Orang tua atau wali harus memilih untuk mengaktifkan fitur untuk keluarga dan pemberitahuan orang tua hanya dapat diaktifkan oleh orang tua atau wali untuk akun anak-anak berusia 12 tahun ke bawah.
Apakah ini berarti pesan akan dibagikan dengan Apple atau lembaga penegak hukum?
Tentu saja tidak, Apple tidak akan pernah dapat mengakses informasi di Pesan karena fitur ini di Pesan. Fitur ini tidak membagikan informasi apa pun dengan Apple, NCMEC, atau lembaga penegak hukum. Fitur keamanan komunikasi di Pesan terpisah dari fitur CSAM untuk pemindaian foto iCloud.
Apakah ini merusak enkripsi ujung ke ujung di aplikasi Pesan?
Tidak. Ini tidak mengarah pada pelanggaran privasi untuk pesan, dan Apple tidak akan pernah dapat mengakses kontak Anda karena fitur ini. Setiap pengguna aplikasi Pesan, termasuk mereka yang mengaktifkan keamanan kontak, memiliki kontrol penuh atas apa yang dikirim dan kepada siapa.
Jika fitur tersebut diaktifkan untuk akun anak, perangkat akan mengevaluasi gambar dalam pesan dan memberikan intervensi jika gambar diidentifikasi sebagai tidak pantas. Tidak pantas dan Apple tidak dapat mengakses pesan, mengganggu pemberitahuan, atau menilai foto.
Apakah fitur ini mencegah anak-anak korban kekerasan mencari bantuan?
Fitur keamanan koneksi hanya berlaku untuk gambar seksual eksplisit yang dibagikan atau diterima dalam pesan dan tidak ada hubungannya dengan aplikasi lain yang dapat digunakan korban untuk mencari bantuan, termasuk pesan teks dan pencarian. Petunjuk tentang cara mencari bantuan.
Akankah orang tua diberitahu tanpa memperingatkan anak-anak dan memberi mereka pilihan?
Tidak. Oh tidak; Akun orang tua atau wali harus mendaftar untuk mengaktifkan keamanan komunikasi dalam pesan Pemberitahuan orang tua diaktifkan untuk akun anak-anak berusia 12 tahun atau lebih muda tetapi sebelum itu, gambar cabul atau tidak pantas dikirim atau diterima, anak tersebut diperingatkan bahwa jika mereka terus melakukannya Melihat atau mengirim gambar, pemberitahuan akan dikirim ke orang tua mereka dan jika anak terus mengirim atau melihat gambar setelah peringatan ini, orang tua diberitahu Untuk akun anak usia 13-17, anak masih diperingatkan dan ditanya apakah mereka ingin melihat atau Berbagi foto seksual, tetapi orang tua tidak diberitahu.
Apakah ini berarti Apple akan memeriksa semua foto yang tersimpan di perangkat saya?
Fitur ini hanya berlaku untuk foto yang dipilih pengguna untuk diunggah ke iCloud.Fitur ini tidak berfungsi dengan pengguna yang menonaktifkan foto iCloud, dan juga tidak berfungsi pada perpustakaan foto di iPhone Anda.
Apakah gambar CSAM yang diunduh ke perangkat saya cocok dengan gambar saya?
Tidak, gambar CSAM tidak disimpan atau dikirim ke perangkat. Alih-alih gambar yang sebenarnya, Apple menggunakan hash yang tidak dapat dibaca yang disimpan di perangkat. Hash ini adalah string angka yang mewakili gambar CSAM yang diketahui, tetapi tidak dapat dibaca atau dikonversi ke gambar yang tidak relevan lagi. Kumpulan hash gambar ini didasarkan pada gambar yang diperoleh dan divalidasi sebagai CSAM oleh organisasi keselamatan anak. Dengan aplikasi enkripsi baru, Apple dapat menggunakan hash ini untuk mengidentifikasi hanya akun iCloud yang menyimpan kumpulan foto yang cocok dengan foto CSAM yang diketahui dan kemudian hanya dapat mengidentifikasi foto anak-anak yang tidak pantas dan tidak mengenali atau melihat foto lainnya.
kenapa sekarang?
Salah satu tantangan besar Apple adalah membantu melindungi anak-anak sekaligus menjaga privasi pengguna. Dengan fitur baru, Apple akan mendeteksi foto CSAM yang disimpan di iCloud dan perusahaan tidak akan mempelajari apa pun tentang data lain yang tersimpan di perangkat Anda.
Teknologi yang ada yang diandalkan oleh perusahaan lain memindai semua gambar pengguna yang disimpan di cloud. Ini menciptakan risiko privasi bagi pengguna tetapi berbeda dengan fitur Pemindaian Foto Apple seperti tidak dapat mengenali foto kecuali keduanya cocok dengan foto CSAM yang diketahui dan disertakan dalam akun iCloud yang menyertakan banyak foto CSAM kanonik.
Bisakah sistem deteksi gambar CSAM iCloud digunakan untuk mendeteksi hal lain?
Apple mengatakan bahwa proses desain untuk mencegah hal ini terjadi. Deteksi gambar CSAM dirancang untuk gambar iCloud sehingga sistem hanya berfungsi dengan hash gambar CSAM yang disediakan oleh NCMEC dan organisasi keselamatan anak lainnya.
Kumpulan hash gambar ini didasarkan pada gambar yang diperoleh dan divalidasi sebagai CSAM oleh organisasi keselamatan anak. Tidak ada pelaporan otomatis ke penegak hukum, dan Apple melakukan tinjauan manusia sebelum mengirimkan laporannya ke Pusat Nasional untuk Anak Hilang dan Tereksploitasi (NCMEC).
Akibatnya, sistem hanya dirancang untuk melaporkan foto yang dikenal sebagai CSAM di Foto iCloud. Di sebagian besar negara, termasuk Amerika Serikat, kepemilikan gambar-gambar ini adalah kejahatan dan Apple berkewajiban untuk melaporkan setiap kasus yang kami ketahui kepada pihak berwenang yang sesuai.
Bisakah pemerintah memaksa Apple untuk menambahkan gambar non-CSAM ke file daftar hash?
Apple akan menolak tuntutan tersebut. Kemampuan deteksi CSAM dirancang untuk mendeteksi hanya foto CSAM yang diketahui yang disimpan di Foto iCloud yang telah diidentifikasi oleh para ahli di NCMEC dan grup keselamatan anak lainnya.
Kami telah menghadapi tuntutan untuk membuat dan memublikasikan perubahan yang diberlakukan pemerintah yang merusak privasi pengguna sebelumnya, dan kami dengan tegas menolak tuntutan ini. Kami akan terus menolaknya di masa depan. Untuk lebih jelasnya, teknologi ini terbatas untuk mendeteksi CSAM yang disimpan di iCloud dan kami tidak akan menyetujui permintaan pemerintah apa pun yang mungkin melibatkan file lain.
Selanjutnya, Apple melakukan tinjauan manusia sebelum mengirimkan laporan ke NCMEC. Jika sistem menandai gambar yang tidak cocok dengan gambar CSAM yang diketahui, akun tidak akan dinonaktifkan dan tidak ada laporan yang akan dikirimkan ke NCMEC.
Bisakah CSAM dikustomisasi untuk menargetkan hal-hal lain atau orang tertentu?
Proses kami dirancang untuk mencegah hal ini terjadi. Hash gambar yang digunakan untuk pencocokan berasal dari gambar CSAM yang diketahui dan yang sudah ada yang diperoleh dan divalidasi oleh organisasi keselamatan anak dan hash yang sama disimpan di sistem operasi setiap pengguna iPhone dan iPad, jadi serangan yang ditargetkan hanya terhadap individu tertentu Tidak diaktifkan oleh desain kami dan tidak ada pelaporan otomatis ke penegak hukum, Apple melakukan tinjauan manusia sebelum mengirimkan laporannya, dan jika sistem tidak mungkin menandai gambar yang tidak cocok dengan gambar CSAM yang diketahui, akun tidak akan dinonaktifkan dan tidak ada laporan akan diajukan.
Bisakah orang yang tidak bersalah salah karena fiturnya?
Tidak, sistem dirancang untuk sangat akurat, dan kemungkinan sistem salah menandai akun tertentu kurang dari satu dalam setiap triliun akun per tahun. Selain itu, setiap kali akun ditandai oleh sistem, Apple melakukan tinjauan manusia sebelum Menyerahkan laporannya ke NCMEC dan akibatnya, kesalahan atau serangan sistem tidak akan menghasilkan pelaporan yang tidak bersalah.
Sumber:
Artikel ini sangat meyakinkan saya bahwa Apple atau pihak lain tidak memanfaatkan privasi
Saya melihat bahwa ini adalah detail dan upaya yang salah tempat. Yang pertama adalah Apple mengintensifkan upayanya untuk menyelesaikan masalah menguras baterainya dengan cepat dan menambahkan aplikasi yang dibutuhkan dan dirindukan pengguna dibandingkan dengan aplikasi Android. Misalnya, saya memiliki sebuah ponsel Lumia XNUMX XL dan itu termasuk dalam program sistem dan tanpa perlu menambah atau membeli aplikasi, sistem perekaman panggilan saya ulangi dalam program sistem, mengapa Apple tidak peduli tentang apa yang lebih menguntungkan pengguna daripada membuang-buang waktu di browsing aplikasi yang mengklaim untuk melayani masyarakat pada saat kecurigaan muncul tentang tujuan sebenarnya dari aplikasi, seperti melindungi anak-anak dari gambar berbahaya!!!!???
Kebenaran dari masalah ini mengganggu.
Apple bukanlah kantor polisi atau badan intelijen.
Ini memiliki lusinan cara untuk membantu anak-anak.
Kami dapat diyakinkan jika kami dapat sepenuhnya mempercayai Apple dan kata-kata serta pernyataannya..tapi..
Saya tidak berpikir bahwa Apple atau orang lain memiliki kejujuran mutlak itu karena kita hidup di dunia yang penuh dengan kebohongan yang diatur oleh kepentingan!!
Terima kasih untuk topik yang bagus ini
Terima kasih usaha
Sebuah perusahaan yang didedikasikan untuk memerangi eksploitasi anak
Dan perusahaan yang tertarik dengan pengisi daya 65 watt dan 200 watt
Dan kameranya 108 piksel
🙃🙃🙃.
Mudah-mudahan, Anda akan baik-baik saja, dan Anda akan menjaga privasi di iPhone
Tak perlu dikatakan lagi bahwa kami mengingatkan pembaca kami yang terkasih tentang bagaimana apel membuat keputusan, dan itu hanya bahwa mereka harus dipelajari dalam semua aspek hukum dan praktis, terutama karena setiap apel menyediakan model yang tak tertandingi dalam mengelola privasi dan keamanan bagi pengguna.
Jadi, sayangku, apakah Anda percaya bahwa apel akan mengorbankan sejarahnya demi sebuah foto?
Layanan ini sangat bagus dan sangat dapat diandalkan setelah penjelasan yang begitu panjang dalam artikel, terutama yang berkaitan dengan keselamatan anak dan omong-omong, opsional.
Jika Anda adalah pendukung teori konspirasi dalam setiap inovasi - dan kebanyakan dari mereka berada di dunia Arab kita yang terdistorsi oleh kecurigaan - Anda tidak membutuhkannya, serahkan keamanan anak-anak Anda di tangan para konspirator yang sebenarnya.
Jika Anda memahami apa yang dikatakan, tidak apa-apa untuk setidaknya bereksperimen atau menunggu beberapa tahun untuk memastikan.
Lebih baik kita singkirkan mentalitas konspirasi dan lebih baik kita memahami detail hal-hal secara perlahan. Memang kita terbiasa dengan banyak konspirasi, tetapi membutakan wawasan untuk meluas ke setiap pendatang baru, ini gerbang keterbelakangan yang harus ditutup, dan isu vaksin corona tak jauh dari polemik tersebut.
Jika Anda mengikuti topik ini, Anda akan tahu bahwa bukan orang Arab yang meletakkan teori konspirasi di sini
Tetapi situs dan akun AS itu sendiri.
Saya pikir itu baik untuk merawat anak-anak Terima kasih Apple
السلام عليكم
Anda punya masalah, saya tidak tahu apakah itu masalah atau tidak
Ini adalah iPad 8 dan berfungsi dengan baik
Setelah memperbarui perangkat, itu mungkin pembaruan 14.5, suara notifikasi menjadi lemah
Saat Anda memasukkan pengaturan dan mengatur nada dering, suaranya sangat kuat, dan suara game, YouTube, dan semua program
Tetapi ketika Anda mengatur nada untuk pesan, surat, atau apa pun, suaranya lemah dan juga suara logo
Apakah ini untuk semua perangkat atau hanya perangkat saya atau ada sesuatu di pengaturan yang perlu diubah
Ini bukan fitur
Saat mata Anda tertuju pada iPad, suara notifikasi akan meredup, dan saat layar ditutup atau tidak diperhatikan, suara notifikasi akan terdengar keras secara alami.
Oke, dan jika terjadi kesalahan, apakah Apple memberikan kompensasi kepada pengguna yang fotonya telah ditinjau oleh manusia dan privasinya telah dilanggar dengan melihat foto mereka tanpa izin?
Apakah mereka akan diberitahu sama sekali?
Bukankah aturan dalam undang-undang untuk tidak mencari hal-hal yang dilarang kecuali dengan adanya kecurigaan terhadap orang tertentu dan karena suatu alasan?
Apakah ada undang-undang yang mengizinkan dan mengakui bahwa prinsipnya adalah bahwa semua konten tunduk pada pengawasan dan pemeriksaan untuk semua orang, bahkan jika itu adalah pemeriksaan otomatis?
Bukankah warga negara sama di depan hukum? Bagaimana dengan pengguna sistem lain?
Semuanya dilakukan oleh Apple Radi...# Bersama _ Oh _ Apple
Damai dan belas kasihan Tuhan
Bagaimana cara mengetahui Mac yang saya pelajari di iPhone, dan cara menambahkannya ke router
ولكم جزيل الشكر
Buka pengaturan umum -> tentang
Anda akan mendapatkan alamat WiFi
Juga, cari di Google dan Anda akan menemukan banyak penjelasan tentang apa yang Anda minta.Saya pikir lebih baik mematikan alamat pribadi di pengaturan Wi-Fi karena ini menetapkan alamat Mac yang berbeda dengan setiap koneksi untuk melindungi Anda.