Apple, geçtiğimiz günlerde birçok eleştiriyle mercek altına alınmıştı. Görüntü tarama özelliği Çocukları korumak ve onların istismarını veya istismarını önlemek için başlattığı cihazlarıyla veya CSAM görüntüleri olarak bilinen birçok gizlilik kuruluşu ve hatta uzmanlar, bu özelliğin bilgisayar korsanlarının ve hatta hükümetlerin bir boşluk haline dönüşmesi konusundaki endişelerini dile getirdiler. iPhone kullanıcılarının gizliliğini ihlal etmek ve herhangi bir karışıklığı ortadan kaldırmak veya Olayları netleştirmek ve doğru bir şekilde açıklamak için kötüye kullanabilir.Apple, yeni özelliği ve sahne arkasında neler olduğu hakkında her şeyi açıklayan SSS şeklinde bir dosya başlattı ve hadi bakalım. çocuk güvenliği özelliği ve kullanıcıların gizliliğini gerçekten tehdit edip etmediği hakkında her şeyi öğrenin.

Apple, çocuk istismarına karşı bu özellikteki gizliliğin ihlali suçlamalarına yanıt veriyor


iCloud Fotoğrafları'nda İleti Koruması ile CSAM arasındaki fark nedir?

Bu iki özellik farklıdır ve Mesajlarda İletişim Güvenliği ile aynı teknolojiyi kullanmaz, ebeveynlere ve çocuklara, çocuklarını Mesajlar uygulamasında cinsel içerikli görüntüler gönderip almaktan korumaya yardımcı olacak ek araçlar sağlamak üzere tasarlanmıştır. Yalnızca Aile Paylaşımı ile kurulan çocuk hesapları için Mesajlar uygulamasında gönderilen veya alınan fotoğraflar üzerinde çalışır ve ardından cihazdaki fotoğrafları analiz eder ve böylece mesajların gizliliğini ifşa etmez. Yararlı ve güven verici, eğer yapmazsa sorun değil' Fotoğrafı görmek veya göndermek istemeyenler ek bir önlem olarak, küçük çocuklara da kendi güvenlikleri için görürlerse ebeveynlerine bir mesaj gönderecekleri söylenebilir.

İkinci özellik, iCloud'da CSAM Fotoğraf Taraması, bilinen CSAM fotoğraflarıyla eşleşenler dışındaki herhangi bir fotoğraf hakkında Apple'a bilgi sağlamadan CSAM'i iCloud Fotoğrafları'nın dışında tutmak için tasarlanmıştır. CSAM görüntülerine sahip olmak, Amerika Birleşik Devletleri de dahil olmak üzere çoğu ülkede yasa dışıdır. Ayrıca, bu özellik yalnızca fotoğraflarını saklamak için iCloud Fotoğraflarını kullanmayı seçen kullanıcıları etkiler ve iCloud Fotoğraflarını kullanmayı seçmeyen kullanıcıları etkilemez. Cihazdaki diğer veriler üzerinde herhangi bir etkisi yoktur ve bu özellik mesajlar için geçerli değildir.


Mesajlarda bağlantı güvenliğini kimler kullanabilir?

Mesajlar'daki iletişim güvenliği yalnızca iCloud'da aile olarak ayarlanmış hesaplar için kullanılabilir. Ebeveynler veya vasiler, aile için özelliği etkinleştirmeyi seçmelidir ve ebeveyn bildirimleri yalnızca ebeveynler veya 12 yaş veya daha küçük çocuklar için hesap vasileri tarafından etkinleştirilebilir.


Bu, mesajların Apple veya kolluk kuvvetleriyle paylaşılacağı anlamına mı geliyor?

Elbette hayır, Apple, Mesajlar'daki bu özelliğin bir sonucu olarak Mesajlar'daki bilgilere hiçbir zaman erişemeyecek. Bu özellik Apple, NCMEC veya kanun uygulayıcı kurumlarla herhangi bir bilgi paylaşmaz. Mesajlar'daki iletişim güvenliği özelliği, iCloud Fotoğraf Taraması için CSAM özelliğinden ayrıdır.


Bu, Mesajlar uygulamasında uçtan uca şifrelemeyi bozar mı?

hayır. Bu, mesajlar için bir gizlilik ihlaliyle sonuçlanmaz ve Apple, bu özelliğin bir sonucu olarak kişilerinize asla erişemez. Kişi güvenliğini etkinleştirmiş olanlar da dahil olmak üzere, Mesajlar uygulamasının herhangi bir kullanıcısı, neyin ve kime gönderildiği üzerinde tam kontrole sahiptir.

 Özellik bir çocuğun hesabı için etkinleştirilirse, cihaz mesajlardaki görüntüleri değerlendirir ve bir görüntünün uygunsuz olarak tanımlanması durumunda müdahale sağlar.Uygun değildir ve Apple mesajlara erişemez, bildirimlere müdahale edemez veya fotoğrafları derecelendiremez.


Bu özellik, istismara uğrayan çocukların yardım istemesini engelliyor mu?

Bağlantı güvenliği özelliği yalnızca mesajlarda paylaşılan veya alınan müstehcen görüntüler için geçerlidir ve metin mesajları da dahil olmak üzere kurbanların yardım istemek için kullanabileceği diğer uygulamalarla hiçbir ilgisi yoktur.


Ebeveynler, çocukları uyarmadan ve onlara bir seçenek sunmadan bilgilendirilecek mi?

hayır. hayır; Mesajlarda iletişim güvenliğini sağlamak için ebeveyn veya vasi hesapları kaydolmalıdır 12 yaş ve altındaki çocukların hesaplarında ebeveyn bildirimleri etkindir ancak bundan önce müstehcen veya uygunsuz herhangi bir görüntü gönderilir veya alınırsa, devam ederse çocuk uyarılır. Görseli izlemek veya göndermek için ebeveynlerine bir bildirim gönderilir ve çocuk bu uyarıdan sonra resim göndermeye veya görüntülemeye devam ederse ebeveynlere bilgi verilir 13-17 yaş arası çocukların hesaplarında çocuk yine de uyarılır ve sorulur. cinsel bir fotoğrafı görüntülemek veya paylaşmak istiyorlar, ancak ebeveynler bilgilendirilmiyor.


Bu, Apple'ın cihazımda depolanan tüm fotoğrafları kontrol edeceği anlamına mı geliyor?

Bu özellik yalnızca kullanıcının iCloud'a yüklemeyi seçtiği fotoğraflar için geçerlidir. Bu özellik, iCloud fotoğraflarını devre dışı bırakan kullanıcılarla çalışmaz ve iPhone'unuzdaki fotoğraf kitaplığında da çalışmaz.


CSAM görüntüleri, resimlerimle eşleşmesi için cihazıma indiriliyor mu?

Hayır, CSAM görüntüleri cihazda saklanmaz veya cihaza gönderilmez. Gerçek görüntüler yerine Apple, cihazda depolanan okunamayan karmaları kullanır. Bu karmalar, bilinen CSAM görüntülerini temsil eden, ancak tekrar okunamayan veya alakasız görüntülere dönüştürülemeyen sayı dizileridir. Bu görüntü karmaları seti, çocuk güvenliği kuruluşları tarafından elde edilen ve CSAM olarak doğrulanan görüntülere dayanmaktadır. Apple, yeni şifreleme uygulamalarıyla bu karmaları yalnızca bilinen CSAM fotoğraflarıyla eşleşen toplu fotoğraf depolayan iCloud hesaplarını tanımlamak için kullanabilir ve ardından başka fotoğrafları tanımadan veya görmeden yalnızca uygunsuz çocuk fotoğraflarını belirleyebilir.


neden şimdi?

Apple'ın en büyük zorluklarından biri, kullanıcıların gizliliğini korurken çocukları korumaya yardımcı olmaktır. Yeni özellik ile Apple, iCloud'da depolanan CSAM fotoğraflarını algılayacak ve şirket, cihazınızda depolanan diğer veriler hakkında hiçbir şey öğrenmeyecek.

Diğer şirketlerin güvendiği mevcut teknolojiler, bulutta depolanan tüm kullanıcı görüntülerini tarar. Bu, kullanıcılar için gizlilik riskleri yaratır, ancak Apple'ın Fotoğraf Tarama özelliğinden farklıdır; örneğin, her ikisi de bilinen CSAM fotoğraflarıyla eşleşmedikçe ve birçok standart CSAM fotoğrafı içeren bir iCloud hesabına dahil olmadıkça fotoğrafları tanıyamama gibi.


iCloud'un CSAM görüntü algılama sistemi başka şeyleri algılamak için kullanılabilir mi?

Apple, sürecin tasarımının bunun olmasını engellediğini söyledi. CSAM görüntü algılama, sistemin yalnızca NCMEC ve diğer çocuk güvenliği kuruluşları tarafından sağlanan CSAM görüntü karmalarıyla çalışması için iCloud görüntüleri için tasarlanmıştır.

Bu görüntü karmaları seti, çocuk güvenliği kuruluşları tarafından elde edilen ve CSAM olarak doğrulanan görüntülere dayanmaktadır. Kolluk kuvvetlerine otomatik olarak bildirim yapılmaz ve Apple, raporunu Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi'ne (NCMEC) göndermeden önce bir insan incelemesi gerçekleştirir.

Sonuç olarak, sistem yalnızca iCloud Fotoğrafları'nda CSAM olarak bilinen fotoğrafları bildirmek için tasarlanmıştır. Amerika Birleşik Devletleri de dahil olmak üzere çoğu ülkede bu görüntülere sahip olmak bir suçtur ve Apple, farkına vardığımız herhangi bir durumu ilgili makamlara bildirmekle yükümlüdür.


Hükümetler Apple'ı bir karma liste dosyasına CSAM olmayan görüntüler eklemeye zorlayabilir mi?

Apple bu tür talepleri reddedecektir. CSAM algılama özelliği, yalnızca NCMEC ve diğer çocuk güvenlik gruplarındaki uzmanlar tarafından tanımlanan iCloud Fotoğrafları'nda depolanan bilinen CSAM fotoğraflarını algılamak için tasarlanmıştır.

Daha önce, kullanıcıların gizliliğini baltalayan, hükümet tarafından dayatılan değişiklikler oluşturma ve yayınlama talepleriyle karşı karşıya kaldık ve bu talepleri kararlılıkla reddettik. Gelecekte de reddetmeye devam edeceğiz. Açık olmak gerekirse, bu teknoloji iCloud'da depolanan CSAM'i algılamakla sınırlıdır ve diğer dosyaları içerebilecek hiçbir resmi talebi onaylamayacağız.

Ayrıca Apple, NCMEC'e bir rapor göndermeden önce bir insan incelemesi gerçekleştirir. Sistem, bilinen CSAM görüntüleri ile eşleşmeyen görüntüleri işaretlerse, hesap devre dışı bırakılmaz ve NCMEC'e herhangi bir rapor gönderilmez.


CSAM, diğer şeyleri veya belirli kişileri hedef alacak şekilde özelleştirilebilir mi?

Sürecimiz bunun olmasını önlemek için tasarlanmıştır. Eşleştirme için kullanılan görüntü karmaları, çocuk güvenliği kuruluşları tarafından elde edilen ve doğrulanan bilinen ve mevcut CSAM görüntülerinden alınır ve aynı karma her iPhone ve iPad kullanıcısının işletim sisteminde saklanır, bu nedenle hedefli saldırılar yalnızca belirli kişilere yöneliktir. tasarımımız tarafından etkinleştirildi ve kolluk kuvvetlerine otomatik bir raporlama mevcut değilse, Apple raporunu göndermeden önce bir insan incelemesi gerçekleştirir ve sistemin bilinen CSAM görüntüleri ile eşleşmeyen görüntüleri işaretlememesi durumunda hesap kapatılmaz. devre dışı bırakılır ve herhangi bir rapor dosyalanmaz.


Bu özellik yüzünden masum insanlar yanlış gidebilir mi?

Hayır, sistem son derece hassas olacak şekilde tasarlanmıştır ve sistemin herhangi bir hesabı yanlış işaretleme olasılığı yılda her trilyon hesapta birden azdır.Ayrıca, sistem tarafından bir hesap her işaretlendiğinde, Apple bir insan incelemesi gerçekleştirir önce raporunu NCMEC'e iletir ve sonuç olarak sistem hataları veya saldırılar masumların rapor edilmesine neden olmaz.

Apple'ın çocuklar için uygunsuz görüntüleri tespit etmeye yönelik yeni özelliği hakkında ne düşünüyorsunuz, yorumlarda bize bildirin.

المصدر:

elma

İlgili Makaleler