Τις τελευταίες ημέρες, η Apple βρέθηκε στο επίκεντρο με πολλές επικρίσεις λόγω Λειτουργία σάρωσης εικόνας Με τις συσκευές του, που ξεκίνησε για την προστασία των παιδιών και την πρόληψη της κακοποίησης ή της εκμετάλλευσης, ή αυτό που είναι γνωστό ως εικόνες CSAM, και πολλοί οργανισμοί απορρήτου και ακόμη και ειδικοί εξέφρασαν ανησυχία για τη μετατροπή αυτής της δυνατότητας σε ένα κενό που μπορούν να εκμεταλλευτούν οι χάκερ ή ακόμη και οι κυβερνήσεις να παραβιάσει το απόρρητο των χρηστών iPhone και να αφαιρέσει οποιαδήποτε σύγχυση ή να διευκρινίσει και να εξηγήσει τα πράγματα σωστά. Η Apple ξεκίνησε ένα αρχείο με τη μορφή Συχνών Ερωτήσεων που εξηγεί τα πάντα για τη νέα της λειτουργία και τι συμβαίνει στα παρασκήνια, και ας μάθουμε τα πάντα το χαρακτηριστικό ασφάλειας των παιδιών και αν πραγματικά απειλεί το απόρρητο των χρηστών ή όχι.

Η Apple απαντά σε κατηγορίες για παραβίαση της ιδιωτικής ζωής στη λειτουργία κατά της εκμετάλλευσης παιδιών


Ποια είναι η διαφορά μεταξύ Προστασίας μηνυμάτων και CSAM στις Φωτογραφίες iCloud;

Αυτές οι δύο δυνατότητες είναι διαφορετικές και δεν χρησιμοποιούν την ίδια τεχνολογία, καθώς η Ασφάλεια Επικοινωνίας στα Μηνύματα έχει σχεδιαστεί για να παρέχει στους γονείς και στα παιδιά πρόσθετα εργαλεία που θα προστατεύουν τα παιδιά τους από την αποστολή και λήψη σεξουαλικά ασταθών εικόνων στην εφαρμογή Μηνύματα. Λειτουργεί μόνο για τις φωτογραφίες που αποστέλλονται ή λαμβάνονται στην εφαρμογή Μηνύματα για λογαριασμούς παιδιών που έχουν δημιουργηθεί με Οικογενειακή κοινή χρήση και στη συνέχεια αναλύει τις φωτογραφίες στη συσκευή και έτσι δεν θέτει σε κίνδυνο το απόρρητο των μηνυμάτων. Χρήσιμο και καθησυχαστικό ότι είναι εντάξει αν δεν το κάνει » δεν θέλουν να δουν ή να στείλουν την εικόνα και ως πρόσθετη προφύλαξη, στα μικρά παιδιά μπορεί επίσης να ειπωθεί ότι για τη δική τους ασφάλεια, οι γονείς τους θα λάβουν ένα μήνυμα αν το δουν.

Η δεύτερη λειτουργία, CSAM Photo Scan στο iCloud, έχει σχεδιαστεί για να κρατάει το CSAM μακριά από τις Φωτογραφίες iCloud χωρίς να παρέχει πληροφορίες στην Apple για άλλες φωτογραφίες εκτός από αυτές που ταιριάζουν με γνωστές φωτογραφίες CSAM. Η κατοχή εικόνων CSAM είναι παράνομη στις περισσότερες χώρες, συμπεριλαμβανομένων των Ηνωμένων Πολιτειών. Επίσης, αυτή η δυνατότητα επηρεάζει μόνο τους χρήστες που έχουν επιλέξει να χρησιμοποιούν τις Φωτογραφίες iCloud για την αποθήκευση των φωτογραφιών τους και δεν επηρεάζει τους χρήστες που δεν έχουν επιλέξει να χρησιμοποιούν τις Φωτογραφίες iCloud. Δεν υπάρχει καμία επίδραση σε άλλα δεδομένα στη συσκευή και αυτή η δυνατότητα δεν ισχύει για μηνύματα.


Ποιος μπορεί να χρησιμοποιήσει την ασφάλεια σύνδεσης στα μηνύματα;

Η ασφάλεια επικοινωνίας στα Μηνύματα είναι διαθέσιμη μόνο για λογαριασμούς που έχουν δημιουργηθεί ως οικογένειες στο iCloud. Οι γονείς ή οι κηδεμόνες πρέπει να επιλέξουν να ενεργοποιήσουν τη λειτουργία για την οικογένεια και οι ειδοποιήσεις γονέων μπορούν να ενεργοποιηθούν μόνο από γονείς ή κηδεμόνες για λογαριασμούς παιδιών ηλικίας 12 ετών και κάτω.


Αυτό σημαίνει ότι τα μηνύματα θα κοινοποιηθούν στην Apple ή στις υπηρεσίες επιβολής του νόμου;

Φυσικά όχι, η Apple δεν θα μπορεί ποτέ να έχει πρόσβαση στις πληροφορίες στα Μηνύματα ως αποτέλεσμα αυτής της δυνατότητας στα Μηνύματα. Αυτή η λειτουργία δεν κοινοποιεί πληροφορίες με την Apple, την NCMEC ή τις υπηρεσίες επιβολής του νόμου. Η δυνατότητα ασφάλειας επικοινωνιών στα Μηνύματα είναι ξεχωριστή από τη δυνατότητα CSAM για σάρωση φωτογραφιών iCloud.


Αυτή η διακοπή κρυπτογράφησης από άκρο σε άκρο στην εφαρμογή Μηνύματα;

Οχι. Αυτό δεν οδηγεί σε παραβίαση απορρήτου για τα μηνύματα και η Apple δεν θα μπορεί ποτέ να έχει πρόσβαση στις επαφές σας ως αποτέλεσμα αυτής της δυνατότητας. Οποιοσδήποτε χρήστης της εφαρμογής Messages, συμπεριλαμβανομένων εκείνων που έχουν ενεργοποιήσει την ασφάλεια επαφών, έχει τον πλήρη έλεγχο του τι αποστέλλεται και σε ποιον.

 Εάν η δυνατότητα είναι ενεργοποιημένη για λογαριασμό παιδιού, η συσκευή θα αξιολογήσει τις εικόνες στα μηνύματα και θα παράσχει μια παρέμβαση εάν μια εικόνα αναγνωριστεί ως ακατάλληλη. Είναι ακατάλληλη και η Apple δεν μπορεί να έχει πρόσβαση σε μηνύματα, να παρεμβαίνει στις ειδοποιήσεις ή να βαθμολογεί φωτογραφίες.


Μήπως αυτή η δυνατότητα αποτρέπει τα κακοποιημένα παιδιά να αναζητήσουν βοήθεια;

Η λειτουργία ασφάλειας σύνδεσης ισχύει μόνο για σεξουαλικά σαφείς εικόνες που μοιράζονται ή λαμβάνονται σε μηνύματα και δεν έχει καμία σχέση με άλλες εφαρμογές που μπορούν να χρησιμοποιήσουν τα θύματα για να ζητήσουν βοήθεια, συμπεριλαμβανομένων των μηνυμάτων κειμένου και των αναζητήσεων. Οδηγίες για το πώς να αναζητήσετε βοήθεια.


Θα ειδοποιηθούν οι γονείς χωρίς να προειδοποιήσουν τα παιδιά και να τους δώσουν την επιλογή;

Οχι. Ο όχι; Οι λογαριασμοί γονέων ή κηδεμόνων πρέπει να εγγραφούν για να ενεργοποιήσουν την ασφάλεια της επικοινωνίας στα μηνύματα Οι ειδοποιήσεις γονέων είναι ενεργοποιημένες για λογαριασμούς παιδιών ηλικίας 12 ετών και κάτω, αλλά πριν από αυτό, αποσταλεί ή ληφθεί οποιαδήποτε άσεμνη ή ακατάλληλη εικόνα, το παιδί προειδοποιείται ότι εάν συνεχίσει να Προβολή ή αποστολή της εικόνας, μια ειδοποίηση θα σταλεί στους γονείς τους και εάν το παιδί συνεχίσει να στέλνει ή να βλέπει μια εικόνα μετά από αυτήν την προειδοποίηση, οι γονείς ειδοποιούνται Για λογαριασμούς παιδιών ηλικίας 13-17 ετών, το παιδί εξακολουθεί να προειδοποιείται και να ρωτείται εάν θα ήθελε να δει ή να μοιραστεί μια σεξουαλική φωτογραφία, αλλά οι γονείς δεν ενημερώνονται.


Αυτό σημαίνει ότι η Apple θα ελέγξει όλες τις φωτογραφίες που είναι αποθηκευμένες στη συσκευή μου;

Αυτή η δυνατότητα ισχύει μόνο για φωτογραφίες που ο χρήστης επιλέγει να ανεβάσει στο iCloud. Η λειτουργία δεν λειτουργεί με χρήστες που έχουν απενεργοποιημένες φωτογραφίες iCloud και επίσης δεν λειτουργεί στη βιβλιοθήκη φωτογραφιών στο iPhone σας.


Οι εικόνες CSAM λαμβάνονται στη συσκευή μου για να ταιριάζουν με τις εικόνες μου;

Όχι, οι εικόνες CSAM δεν αποθηκεύονται ή αποστέλλονται στη συσκευή. Αντί για πραγματικές εικόνες, η Apple χρησιμοποιεί αδιάβαστα hashes που είναι αποθηκευμένα στη συσκευή. Αυτοί οι κατακερματισμοί είναι συμβολοσειρές αριθμών που αντιπροσωπεύουν γνωστές εικόνες CSAM, αλλά δεν μπορούν να διαβαστούν ή να μετατραπούν ξανά σε άσχετες εικόνες. Αυτό το σύνολο κατακερματισμών εικόνας βασίζεται σε εικόνες που έχουν ληφθεί και επικυρωθεί ως CSAM από οργανισμούς ασφάλειας παιδιών. Με νέες εφαρμογές κρυπτογράφησης, η Apple μπορεί να χρησιμοποιήσει αυτούς τους κατακερματισμούς για να εντοπίσει μόνο λογαριασμούς iCloud που αποθηκεύουν σύνολα φωτογραφιών που ταιριάζουν με γνωστές φωτογραφίες CSAM και, στη συνέχεια, μπορεί να αναγνωρίσει μόνο ακατάλληλες φωτογραφίες παιδιών και να μην αναγνωρίσει ή να δει άλλες φωτογραφίες.


γιατί τώρα?

Μία από τις μεγάλες προκλήσεις της Apple είναι να βοηθήσει στην προστασία των παιδιών διατηρώντας παράλληλα το απόρρητο των χρηστών. Με τη νέα λειτουργία, η Apple θα εντοπίσει φωτογραφίες CSAM που είναι αποθηκευμένες στο iCloud και η εταιρεία δεν θα μάθει τίποτα για άλλα δεδομένα που είναι αποθηκευμένα στη συσκευή σας.

Οι υπάρχουσες τεχνολογίες στις οποίες βασίζονται άλλες εταιρείες σαρώνουν όλες τις εικόνες των χρηστών που είναι αποθηκευμένες στο cloud. Αυτό δημιουργεί κινδύνους απορρήτου για τους χρήστες, αλλά είναι διαφορετικό με τη λειτουργία Photo Scan της Apple, όπως η αδυναμία αναγνώρισης φωτογραφιών, εκτός εάν ταιριάζουν και οι δύο με γνωστές φωτογραφίες CSAM και δεν περιλαμβάνονται σε λογαριασμό iCloud που περιλαμβάνει πολλές κανονικές φωτογραφίες CSAM.


Μπορεί το σύστημα ανίχνευσης εικόνας CSAM του iCloud να χρησιμοποιηθεί για τον εντοπισμό άλλων πραγμάτων;

Η Apple είπε ότι ο σχεδιασμός της διαδικασίας για να αποφευχθεί αυτό. Η ανίχνευση εικόνας CSAM έχει σχεδιαστεί για εικόνες iCloud, έτσι ώστε το σύστημα να λειτουργεί μόνο με κατακερματισμούς εικόνας CSAM που παρέχονται από το NCMEC και άλλους οργανισμούς ασφάλειας παιδιών.

Αυτό το σύνολο κατακερματισμών εικόνας βασίζεται σε εικόνες που έχουν ληφθεί και επικυρωθεί ως CSAM από οργανισμούς ασφάλειας παιδιών. Δεν υπάρχει αυτοματοποιημένη αναφορά στις αρχές επιβολής του νόμου και η Apple διεξάγει μια ανθρώπινη ανασκόπηση πριν υποβάλει την αναφορά της στο Εθνικό Κέντρο Εξαφανισμένων και Εκμεταλλευόμενων Παιδιών (NCMEC).

Ως αποτέλεσμα, το σύστημα έχει σχεδιαστεί μόνο για να αναφέρει φωτογραφίες γνωστές ως CSAM στις Φωτογραφίες iCloud. Στις περισσότερες χώρες, συμπεριλαμβανομένων των Ηνωμένων Πολιτειών, η κατοχή αυτών των εικόνων είναι έγκλημα και η Apple είναι υποχρεωμένη να αναφέρει στις περιπτώσεις που γνωρίζουμε στις αρμόδιες αρχές.


Μπορούν οι κυβερνήσεις να αναγκάσουν την Apple να προσθέσει εικόνες χωρίς CSAM σε ένα αρχείο καταλόγου κατακερματισμού;

Η Apple θα αρνηθεί οποιαδήποτε τέτοια απαίτηση. Η δυνατότητα ανίχνευσης CSAM έχει σχεδιαστεί για να ανιχνεύει μόνο γνωστές φωτογραφίες CSAM που είναι αποθηκευμένες στο iCloud Photos και έχουν αναγνωριστεί από ειδικούς στο NCMEC και άλλες ομάδες ασφάλειας παιδιών.

Έχουμε αντιμετωπίσει αιτήματα για την οικοδόμηση και δημοσίευση αλλαγών που επιβάλλονται από την κυβέρνηση και που υπονομεύουν το απόρρητο των χρηστών στο παρελθόν, και απορρίψαμε σταθερά αυτά τα αιτήματα. Θα συνεχίσουμε να το απορρίπτουμε στο μέλλον. Για να είμαστε σαφείς, αυτή η τεχνολογία περιορίζεται στον εντοπισμό CSAM που είναι αποθηκευμένος στο iCloud και δεν θα εγκρίνουμε κανένα κρατικό αίτημα που μπορεί να περιλαμβάνει άλλα αρχεία.

Επιπλέον, η Apple πραγματοποιεί μια ανθρώπινη ανασκόπηση πριν υποβάλει μια έκθεση στο NCMEC. Εάν το σύστημα επισημάνει εικόνες που δεν ταιριάζουν με γνωστές εικόνες CSAM, ο λογαριασμός δεν θα απενεργοποιηθεί και καμία αναφορά δεν θα υποβληθεί στο NCMEC.


Μπορεί το CSAM να προσαρμοστεί ώστε να στοχεύει άλλα πράγματα ή συγκεκριμένα άτομα;

Η διαδικασία μας έχει σχεδιαστεί για να αποτρέψει αυτό να συμβεί. Οι κατακερματισμοί εικόνας που χρησιμοποιούνται για αντιστοίχιση προέρχονται από γνωστές και υπάρχουσες εικόνες CSAM που έχουν ληφθεί και επικυρωθεί από οργανισμούς ασφάλειας παιδιών και το ίδιο hash αποθηκεύεται στο λειτουργικό σύστημα κάθε χρήστη iPhone και iPad, επομένως οι στοχευμένες επιθέσεις αφορούν μόνο συγκεκριμένα άτομα Δεν επιτρέπεται από το σχεδιασμό μας και δεν υπάρχει αυτοματοποιημένη αναφορά στις αρχές επιβολής του νόμου, η Apple πραγματοποιεί ανθρώπινη ανασκόπηση πριν υποβάλει την αναφορά της και σε περίπτωση που το σύστημα δεν είναι πιθανό να επισημάνει εικόνες που δεν ταιριάζουν με γνωστές εικόνες CSAM, ο λογαριασμός δεν θα απενεργοποιηθεί και καμία αναφορά θα κατατεθεί.


Μπορούν αθώοι άνθρωποι να κάνουν λάθος λόγω του χαρακτηριστικού;

Όχι, το σύστημα έχει σχεδιαστεί για να είναι εξαιρετικά ακριβές και η πιθανότητα το σύστημα να επισημαίνει εσφαλμένα οποιονδήποτε συγκεκριμένο λογαριασμό είναι μικρότερος από έναν σε κάθε τρισεκατομμύριο λογαριασμούς ετησίως. Επιπλέον, κάθε φορά που ένας λογαριασμός επισημαίνεται από το σύστημα, η Apple πραγματοποιεί μια ανθρώπινη επανεξέταση πριν από την υποβολή της έκθεσής του στο NCMEC και ως εκ τούτου, σφάλματα ή επιθέσεις του συστήματος δεν θα έχουν ως αποτέλεσμα την αναφορά αθώων.

Ποια είναι η γνώμη σας για τη νέα λειτουργία της Apple για τον εντοπισμό ακατάλληλων εικόνων για παιδιά, πείτε μας στα σχόλια

Πηγή:

μήλο

Σχετικά Άρθρα