Η Apple αναμένεται να λανσάρει τη λειτουργία της Νέα ασφάλεια παιδιών CSAM Αργότερα φέτος, συγκεκριμένα με το λανσάρισμα του iOS 15, αλλά ένας από τους προγραμματιστές είπε ότι βρήκε τον αλγόριθμο μέσω του οποίου λειτουργεί το χαρακτηριστικό σε παλαιότερες εκδόσεις του λειτουργικού συστήματος iPhone και ανακάλυψε ένα ελάττωμα και ένα τεχνικό ελάττωμα σε αυτήν την τεχνολογία. Τι είναι λοιπόν αυτό το ελάττωμα και ποια ήταν η απάντηση της Apple;

Ανακαλύφθηκε ένα ελάττωμα στην τεχνολογία κατά της παιδικής κακοποίησης της Apple και η Apple απαντά


Λειτουργία ανάλυσης και σάρωσης εικόνας CSAM

Ένας χρήστης του Reddit λέει ότι ανακάλυψε μια έκδοση του αλγορίθμου NeuralHash που χρησιμοποιείται για τον εντοπισμό εικόνων CSAM στο iOS 14.3.

Η απάντηση της Apple ήταν: Η εξαγόμενη έκδοση δεν είναι ενημερωμένη και δεν θα χρησιμοποιηθεί.

Ο προγραμματιστής γνωστός ως AsuharietYgvar μπόρεσε να βρει τον κώδικα NerualHash που ήταν θαμμένος στο iOS 14.3 και είπε ότι σχεδίασε αντίστροφα τον κώδικα και ανακατασκεύασε ένα μοντέλο εργασίας στην Python που μπορεί να δοκιμαστεί περνώντας εικόνες αυτών των κωδικών.

Ο προγραμματιστής ισχυρίζεται ότι αυτός ο αλγόριθμος δεν ξεγελάται από τη συμπίεση ή την αλλαγή μεγέθους της εικόνας, αλλά δεν μπορεί να ανιχνεύσει τη διαδικασία περικοπής ή περιστροφής της εικόνας. Χρησιμοποιώντας τη γλώσσα της Python, οι χρήστες της πλατφόρμας GitHub άρχισαν να εξετάζουν πώς λειτουργεί ο αλγόριθμος και αν μπορεί να γίνει κατάχρηση και εκμετάλλευση με τρόπο που απειλεί τους κατόχους iPhone. Κακομεταχείριση και εντελώς αθώα φωτογραφία, αλλά εξαπατά τους κωδικούς της Apple και παράγει αντιστοιχία με κωδικούς CSAM , έτσι θεωρητικά ένας χάκερ θα μπορούσε να στείλει αυτές τις πολύ φυσικές φωτογραφίες ως ταπετσαρία της συσκευής σας ή ένα κανονικό τοπίο στους χρήστες της Apple για να προσπαθήσουν να εκτελέσουν τον αλγόριθμο και να τους παγιδεύσουν και να τους προκαλέσουν προβλήματα.


Όχι η τελική έκδοση

Παρά τις ελλείψεις αυτές, μπορούμε να πούμε ότι ο αλγόριθμος που ανακαλύφθηκε δεν είναι η τελική έκδοση, καθώς η Apple έχει κατασκευάσει τον αλγόριθμο ανίχνευσης εικόνας CSAM εδώ και χρόνια, οπότε υποτίθεται ότι υπάρχουν ορισμένες εκδόσεις του κώδικα για δοκιμή.

Όσο για τη δυνατότητα δημιουργίας ψεύτικων φωτογραφιών και αποστολής τους σε χρήστες iPhone για να τις παγιδεύσουν, δεν είναι τόσο απλό, γιατί η Apple δεν αποκαλύπτει τις φωτογραφίες αν δεν είναι συγχρονισμένες με το σύννεφο και μην ξεχάσει την ανθρώπινη κριτική για να διασφαλίσει ότι οι φωτογραφίες στην πραγματικότητα περιέχουν κακοποίηση παιδιών, όλα αυτά σημαίνουν ότι η επίθεση που Υποτίθεται ότι είναι αληθινή στη θεωρία αλλά δύσκολη στην πράξη.


Η Apple απάντησε

Η Apple ανέφερε σε δήλωσή της ότι ο κώδικας NeuralHash που ανακαλύφθηκε στο iOS 14.3 δεν είναι η τελική έκδοση, επίσης κανείς δεν έχει ανακαλύψει την ύπαρξη βάσης δεδομένων CSAM ή αλγόριθμου αντιστοίχισης στην έκδοση iOS 15 beta, αλλά η λειτουργία αναμένεται να ξεκινήσει η πλήρης έκδοσή του μετά την εμφάνιση του συστήματος Νέα κυκλοφορία iOS 15.

Ποια είναι η γνώμη σας για τη νέα λειτουργία ασφάλειας των παιδιών της Apple και υπάρχει φόβος ότι θα μπορούσε να χρησιμοποιηθεί κατάχρηση, πείτε μας στα σχόλια

Πηγή:

μέγγενη

Σχετικά Άρθρα