Apple'ın bu özelliği piyasaya sürmesi bekleniyor Yeni Çocuk Güvenliği CSAM Bu yılın ilerleyen saatlerinde, özellikle iOS 15'in piyasaya sürülmesiyle, ancak geliştiricilerden biri, özelliğin iPhone işletim sisteminin eski sürümlerinde çalıştığı algoritmayı bulduklarını ve bu teknolojide bir kusur ve teknik bir kusur keşfettiklerini söyledi. Peki bu kusur nedir ve Apple'ın yanıtı ne oldu?

Apple'ın çocuk istismarını önleme teknolojisinde bir kusur keşfedildi ve Apple yanıt verdi


CSAM görüntü analizi ve tarama özelliği

Bir Reddit kullanıcısı, iOS 14.3'te CSAM görüntülerini algılamak için kullanılan NeuralHash algoritmasının bir sürümünü keşfettiğini söylüyor.

Apple'ın yanıtı şuydu: Çıkarılan sürüm güncel değil ve kullanılmayacak.

AsuharietYgvar olarak bilinen geliştirici, iOS 14.3'ün içine gömülü NerualHash kodunu bulmayı başardı ve kodu tersine mühendislikle yaptığını ve Python'da bu kodların görüntülerini ileterek test edilebilecek çalışan bir model oluşturduğunu söyledi.

Geliştirici, bu algoritmanın görüntü sıkıştırma veya yeniden boyutlandırma ile kandırılmadığını, ancak görüntüyü kırpma veya döndürme işlemini algılayamadığını iddia ediyor. Python dilini kullanan GitHub platformunun kullanıcıları, algoritmanın nasıl çalıştığını ve iPhone sahiplerini tehdit edecek şekilde kötüye kullanılıp kullanılamayacağını incelemeye başladılar.Suistimal edilmiş ve tamamen masum fotoğraf ancak Apple kodlarını aldatıyor ve CSAM kodlarıyla eşleşme üretiyor , bu nedenle teoride bir bilgisayar korsanı, algoritmayı çalıştırmaya ve onları tuzağa düşürmeye ve sorunlara neden olmaya çalışmak için bu çok doğal görünen fotoğrafları cihazınızın duvar kağıdı veya normal bir manzara olarak Apple kullanıcılarına gönderebilir.


son sürüm değil

Bu eksikliklere rağmen, Apple'ın yıllardır CSAM görüntü algılama algoritmasını oluşturması nedeniyle keşfedilen algoritmanın nihai sürüm olmadığı söylenebilir, bu nedenle test için kodun bazı sürümlerinin olması gerekiyordu.

Sahte fotoğraflar oluşturma ve onları yakalamaları için iPhone kullanıcılarına gönderme olasılığına gelince, bu o kadar basit değil, çünkü Apple, bulutla senkronize edilmedikçe fotoğrafları açıklamaz ve fotoğrafların doğru olduğundan emin olmak için insan incelemesini unutmayın. aslında çocuk istismarı içeriyor, tüm bunlar teoride doğru kabul edilen ancak pratikte zor olan saldırı anlamına geliyor.


Apple yanıt verdi

Apple yaptığı açıklamada, iOS 14.3'te keşfedilen NeuralHash kodunun nihai sürüm olmadığını, ayrıca iOS 15 beta sürümünde henüz kimsenin bir CSAM veritabanı veya eşleştirme algoritmasının varlığını keşfetmediğini ancak özelliğin önümüzdeki günlerde kullanıma sunulmasının beklendiğini söyledi. sistemin ortaya çıkmasından sonra tam sürümü Yeni lansman iOS 15.

Apple'ın yeni çocuk güvenliği özelliği hakkında ne düşünüyorsunuz ve kötüye kullanılma korkusu var mı, yorumlarda bize bildirin.

المصدر:

mengene

İlgili Makaleler