Τις τελευταίες ημέρες, η Apple βρέθηκε στο επίκεντρο με πολλές επικρίσεις λόγω Λειτουργία σάρωσης εικόνας Με τις συσκευές του, που ξεκίνησε για την προστασία των παιδιών και την πρόληψη της κακοποίησης ή της εκμετάλλευσης, ή αυτό που είναι γνωστό ως εικόνες CSAM, και πολλοί οργανισμοί απορρήτου και ακόμη και ειδικοί εξέφρασαν ανησυχία για τη μετατροπή αυτής της δυνατότητας σε ένα κενό που μπορούν να εκμεταλλευτούν οι χάκερ ή ακόμη και οι κυβερνήσεις να παραβιάσει το απόρρητο των χρηστών iPhone και να αφαιρέσει οποιαδήποτε σύγχυση ή να διευκρινίσει και να εξηγήσει τα πράγματα σωστά. Η Apple ξεκίνησε ένα αρχείο με τη μορφή Συχνών Ερωτήσεων που εξηγεί τα πάντα για τη νέα της λειτουργία και τι συμβαίνει στα παρασκήνια, και ας μάθουμε τα πάντα το χαρακτηριστικό ασφάλειας των παιδιών και αν πραγματικά απειλεί το απόρρητο των χρηστών ή όχι.
Ποια είναι η διαφορά μεταξύ Προστασίας μηνυμάτων και CSAM στις Φωτογραφίες iCloud;
Αυτές οι δύο δυνατότητες είναι διαφορετικές και δεν χρησιμοποιούν την ίδια τεχνολογία, καθώς η Ασφάλεια Επικοινωνίας στα Μηνύματα έχει σχεδιαστεί για να παρέχει στους γονείς και στα παιδιά πρόσθετα εργαλεία που θα προστατεύουν τα παιδιά τους από την αποστολή και λήψη σεξουαλικά ασταθών εικόνων στην εφαρμογή Μηνύματα. Λειτουργεί μόνο για τις φωτογραφίες που αποστέλλονται ή λαμβάνονται στην εφαρμογή Μηνύματα για λογαριασμούς παιδιών που έχουν δημιουργηθεί με Οικογενειακή κοινή χρήση και στη συνέχεια αναλύει τις φωτογραφίες στη συσκευή και έτσι δεν θέτει σε κίνδυνο το απόρρητο των μηνυμάτων. Χρήσιμο και καθησυχαστικό ότι είναι εντάξει αν δεν το κάνει » δεν θέλουν να δουν ή να στείλουν την εικόνα και ως πρόσθετη προφύλαξη, στα μικρά παιδιά μπορεί επίσης να ειπωθεί ότι για τη δική τους ασφάλεια, οι γονείς τους θα λάβουν ένα μήνυμα αν το δουν.
Η δεύτερη λειτουργία, CSAM Photo Scan στο iCloud, έχει σχεδιαστεί για να κρατάει το CSAM μακριά από τις Φωτογραφίες iCloud χωρίς να παρέχει πληροφορίες στην Apple για άλλες φωτογραφίες εκτός από αυτές που ταιριάζουν με γνωστές φωτογραφίες CSAM. Η κατοχή εικόνων CSAM είναι παράνομη στις περισσότερες χώρες, συμπεριλαμβανομένων των Ηνωμένων Πολιτειών. Επίσης, αυτή η δυνατότητα επηρεάζει μόνο τους χρήστες που έχουν επιλέξει να χρησιμοποιούν τις Φωτογραφίες iCloud για την αποθήκευση των φωτογραφιών τους και δεν επηρεάζει τους χρήστες που δεν έχουν επιλέξει να χρησιμοποιούν τις Φωτογραφίες iCloud. Δεν υπάρχει καμία επίδραση σε άλλα δεδομένα στη συσκευή και αυτή η δυνατότητα δεν ισχύει για μηνύματα.
Ποιος μπορεί να χρησιμοποιήσει την ασφάλεια σύνδεσης στα μηνύματα;
Η ασφάλεια επικοινωνίας στα Μηνύματα είναι διαθέσιμη μόνο για λογαριασμούς που έχουν δημιουργηθεί ως οικογένειες στο iCloud. Οι γονείς ή οι κηδεμόνες πρέπει να επιλέξουν να ενεργοποιήσουν τη λειτουργία για την οικογένεια και οι ειδοποιήσεις γονέων μπορούν να ενεργοποιηθούν μόνο από γονείς ή κηδεμόνες για λογαριασμούς παιδιών ηλικίας 12 ετών και κάτω.
Αυτό σημαίνει ότι τα μηνύματα θα κοινοποιηθούν στην Apple ή στις υπηρεσίες επιβολής του νόμου;
Φυσικά όχι, η Apple δεν θα μπορεί ποτέ να έχει πρόσβαση στις πληροφορίες στα Μηνύματα ως αποτέλεσμα αυτής της δυνατότητας στα Μηνύματα. Αυτή η λειτουργία δεν κοινοποιεί πληροφορίες με την Apple, την NCMEC ή τις υπηρεσίες επιβολής του νόμου. Η δυνατότητα ασφάλειας επικοινωνιών στα Μηνύματα είναι ξεχωριστή από τη δυνατότητα CSAM για σάρωση φωτογραφιών iCloud.
Αυτή η διακοπή κρυπτογράφησης από άκρο σε άκρο στην εφαρμογή Μηνύματα;
Οχι. Αυτό δεν οδηγεί σε παραβίαση απορρήτου για τα μηνύματα και η Apple δεν θα μπορεί ποτέ να έχει πρόσβαση στις επαφές σας ως αποτέλεσμα αυτής της δυνατότητας. Οποιοσδήποτε χρήστης της εφαρμογής Messages, συμπεριλαμβανομένων εκείνων που έχουν ενεργοποιήσει την ασφάλεια επαφών, έχει τον πλήρη έλεγχο του τι αποστέλλεται και σε ποιον.
Εάν η δυνατότητα είναι ενεργοποιημένη για λογαριασμό παιδιού, η συσκευή θα αξιολογήσει τις εικόνες στα μηνύματα και θα παράσχει μια παρέμβαση εάν μια εικόνα αναγνωριστεί ως ακατάλληλη. Είναι ακατάλληλη και η Apple δεν μπορεί να έχει πρόσβαση σε μηνύματα, να παρεμβαίνει στις ειδοποιήσεις ή να βαθμολογεί φωτογραφίες.
Μήπως αυτή η δυνατότητα αποτρέπει τα κακοποιημένα παιδιά να αναζητήσουν βοήθεια;
Η λειτουργία ασφάλειας σύνδεσης ισχύει μόνο για σεξουαλικά σαφείς εικόνες που μοιράζονται ή λαμβάνονται σε μηνύματα και δεν έχει καμία σχέση με άλλες εφαρμογές που μπορούν να χρησιμοποιήσουν τα θύματα για να ζητήσουν βοήθεια, συμπεριλαμβανομένων των μηνυμάτων κειμένου και των αναζητήσεων. Οδηγίες για το πώς να αναζητήσετε βοήθεια.
Θα ειδοποιηθούν οι γονείς χωρίς να προειδοποιήσουν τα παιδιά και να τους δώσουν την επιλογή;
Οχι. Ο όχι; Οι λογαριασμοί γονέων ή κηδεμόνων πρέπει να εγγραφούν για να ενεργοποιήσουν την ασφάλεια της επικοινωνίας στα μηνύματα Οι ειδοποιήσεις γονέων είναι ενεργοποιημένες για λογαριασμούς παιδιών ηλικίας 12 ετών και κάτω, αλλά πριν από αυτό, αποσταλεί ή ληφθεί οποιαδήποτε άσεμνη ή ακατάλληλη εικόνα, το παιδί προειδοποιείται ότι εάν συνεχίσει να Προβολή ή αποστολή της εικόνας, μια ειδοποίηση θα σταλεί στους γονείς τους και εάν το παιδί συνεχίσει να στέλνει ή να βλέπει μια εικόνα μετά από αυτήν την προειδοποίηση, οι γονείς ειδοποιούνται Για λογαριασμούς παιδιών ηλικίας 13-17 ετών, το παιδί εξακολουθεί να προειδοποιείται και να ρωτείται εάν θα ήθελε να δει ή να μοιραστεί μια σεξουαλική φωτογραφία, αλλά οι γονείς δεν ενημερώνονται.
Αυτό σημαίνει ότι η Apple θα ελέγξει όλες τις φωτογραφίες που είναι αποθηκευμένες στη συσκευή μου;
Αυτή η δυνατότητα ισχύει μόνο για φωτογραφίες που ο χρήστης επιλέγει να ανεβάσει στο iCloud. Η λειτουργία δεν λειτουργεί με χρήστες που έχουν απενεργοποιημένες φωτογραφίες iCloud και επίσης δεν λειτουργεί στη βιβλιοθήκη φωτογραφιών στο iPhone σας.
Οι εικόνες CSAM λαμβάνονται στη συσκευή μου για να ταιριάζουν με τις εικόνες μου;
Όχι, οι εικόνες CSAM δεν αποθηκεύονται ή αποστέλλονται στη συσκευή. Αντί για πραγματικές εικόνες, η Apple χρησιμοποιεί αδιάβαστα hashes που είναι αποθηκευμένα στη συσκευή. Αυτοί οι κατακερματισμοί είναι συμβολοσειρές αριθμών που αντιπροσωπεύουν γνωστές εικόνες CSAM, αλλά δεν μπορούν να διαβαστούν ή να μετατραπούν ξανά σε άσχετες εικόνες. Αυτό το σύνολο κατακερματισμών εικόνας βασίζεται σε εικόνες που έχουν ληφθεί και επικυρωθεί ως CSAM από οργανισμούς ασφάλειας παιδιών. Με νέες εφαρμογές κρυπτογράφησης, η Apple μπορεί να χρησιμοποιήσει αυτούς τους κατακερματισμούς για να εντοπίσει μόνο λογαριασμούς iCloud που αποθηκεύουν σύνολα φωτογραφιών που ταιριάζουν με γνωστές φωτογραφίες CSAM και, στη συνέχεια, μπορεί να αναγνωρίσει μόνο ακατάλληλες φωτογραφίες παιδιών και να μην αναγνωρίσει ή να δει άλλες φωτογραφίες.
γιατί τώρα?
Μία από τις μεγάλες προκλήσεις της Apple είναι να βοηθήσει στην προστασία των παιδιών διατηρώντας παράλληλα το απόρρητο των χρηστών. Με τη νέα λειτουργία, η Apple θα εντοπίσει φωτογραφίες CSAM που είναι αποθηκευμένες στο iCloud και η εταιρεία δεν θα μάθει τίποτα για άλλα δεδομένα που είναι αποθηκευμένα στη συσκευή σας.
Οι υπάρχουσες τεχνολογίες στις οποίες βασίζονται άλλες εταιρείες σαρώνουν όλες τις εικόνες των χρηστών που είναι αποθηκευμένες στο cloud. Αυτό δημιουργεί κινδύνους απορρήτου για τους χρήστες, αλλά είναι διαφορετικό με τη λειτουργία Photo Scan της Apple, όπως η αδυναμία αναγνώρισης φωτογραφιών, εκτός εάν ταιριάζουν και οι δύο με γνωστές φωτογραφίες CSAM και δεν περιλαμβάνονται σε λογαριασμό iCloud που περιλαμβάνει πολλές κανονικές φωτογραφίες CSAM.
Μπορεί το σύστημα ανίχνευσης εικόνας CSAM του iCloud να χρησιμοποιηθεί για τον εντοπισμό άλλων πραγμάτων;
Η Apple είπε ότι ο σχεδιασμός της διαδικασίας για να αποφευχθεί αυτό. Η ανίχνευση εικόνας CSAM έχει σχεδιαστεί για εικόνες iCloud, έτσι ώστε το σύστημα να λειτουργεί μόνο με κατακερματισμούς εικόνας CSAM που παρέχονται από το NCMEC και άλλους οργανισμούς ασφάλειας παιδιών.
Αυτό το σύνολο κατακερματισμών εικόνας βασίζεται σε εικόνες που έχουν ληφθεί και επικυρωθεί ως CSAM από οργανισμούς ασφάλειας παιδιών. Δεν υπάρχει αυτοματοποιημένη αναφορά στις αρχές επιβολής του νόμου και η Apple διεξάγει μια ανθρώπινη ανασκόπηση πριν υποβάλει την αναφορά της στο Εθνικό Κέντρο Εξαφανισμένων και Εκμεταλλευόμενων Παιδιών (NCMEC).
Ως αποτέλεσμα, το σύστημα έχει σχεδιαστεί μόνο για να αναφέρει φωτογραφίες γνωστές ως CSAM στις Φωτογραφίες iCloud. Στις περισσότερες χώρες, συμπεριλαμβανομένων των Ηνωμένων Πολιτειών, η κατοχή αυτών των εικόνων είναι έγκλημα και η Apple είναι υποχρεωμένη να αναφέρει στις περιπτώσεις που γνωρίζουμε στις αρμόδιες αρχές.
Μπορούν οι κυβερνήσεις να αναγκάσουν την Apple να προσθέσει εικόνες χωρίς CSAM σε ένα αρχείο καταλόγου κατακερματισμού;
Η Apple θα αρνηθεί οποιαδήποτε τέτοια απαίτηση. Η δυνατότητα ανίχνευσης CSAM έχει σχεδιαστεί για να ανιχνεύει μόνο γνωστές φωτογραφίες CSAM που είναι αποθηκευμένες στο iCloud Photos και έχουν αναγνωριστεί από ειδικούς στο NCMEC και άλλες ομάδες ασφάλειας παιδιών.
Έχουμε αντιμετωπίσει αιτήματα για την οικοδόμηση και δημοσίευση αλλαγών που επιβάλλονται από την κυβέρνηση και που υπονομεύουν το απόρρητο των χρηστών στο παρελθόν, και απορρίψαμε σταθερά αυτά τα αιτήματα. Θα συνεχίσουμε να το απορρίπτουμε στο μέλλον. Για να είμαστε σαφείς, αυτή η τεχνολογία περιορίζεται στον εντοπισμό CSAM που είναι αποθηκευμένος στο iCloud και δεν θα εγκρίνουμε κανένα κρατικό αίτημα που μπορεί να περιλαμβάνει άλλα αρχεία.
Επιπλέον, η Apple πραγματοποιεί μια ανθρώπινη ανασκόπηση πριν υποβάλει μια έκθεση στο NCMEC. Εάν το σύστημα επισημάνει εικόνες που δεν ταιριάζουν με γνωστές εικόνες CSAM, ο λογαριασμός δεν θα απενεργοποιηθεί και καμία αναφορά δεν θα υποβληθεί στο NCMEC.
Μπορεί το CSAM να προσαρμοστεί ώστε να στοχεύει άλλα πράγματα ή συγκεκριμένα άτομα;
Η διαδικασία μας έχει σχεδιαστεί για να αποτρέψει αυτό να συμβεί. Οι κατακερματισμοί εικόνας που χρησιμοποιούνται για αντιστοίχιση προέρχονται από γνωστές και υπάρχουσες εικόνες CSAM που έχουν ληφθεί και επικυρωθεί από οργανισμούς ασφάλειας παιδιών και το ίδιο hash αποθηκεύεται στο λειτουργικό σύστημα κάθε χρήστη iPhone και iPad, επομένως οι στοχευμένες επιθέσεις αφορούν μόνο συγκεκριμένα άτομα Δεν επιτρέπεται από το σχεδιασμό μας και δεν υπάρχει αυτοματοποιημένη αναφορά στις αρχές επιβολής του νόμου, η Apple πραγματοποιεί ανθρώπινη ανασκόπηση πριν υποβάλει την αναφορά της και σε περίπτωση που το σύστημα δεν είναι πιθανό να επισημάνει εικόνες που δεν ταιριάζουν με γνωστές εικόνες CSAM, ο λογαριασμός δεν θα απενεργοποιηθεί και καμία αναφορά θα κατατεθεί.
Μπορούν αθώοι άνθρωποι να κάνουν λάθος λόγω του χαρακτηριστικού;
Όχι, το σύστημα έχει σχεδιαστεί για να είναι εξαιρετικά ακριβές και η πιθανότητα το σύστημα να επισημαίνει εσφαλμένα οποιονδήποτε συγκεκριμένο λογαριασμό είναι μικρότερος από έναν σε κάθε τρισεκατομμύριο λογαριασμούς ετησίως. Επιπλέον, κάθε φορά που ένας λογαριασμός επισημαίνεται από το σύστημα, η Apple πραγματοποιεί μια ανθρώπινη επανεξέταση πριν από την υποβολή της έκθεσής του στο NCMEC και ως εκ τούτου, σφάλματα ή επιθέσεις του συστήματος δεν θα έχουν ως αποτέλεσμα την αναφορά αθώων.
Πηγή:
Αυτό το άρθρο με καθησύχασε σε μεγάλο βαθμό ότι η Apple ή άλλοι δεν εκμεταλλεύονται το απόρρητο
Βλέπω ότι πρόκειται για μια άστοχη λεπτομέρεια και προσπάθεια. Το πρώτο πράγμα είναι η Apple να εντείνει τις προσπάθειές της για να λύσει το πρόβλημα της γρήγορης εξάντλησης των μπαταριών της και να προσθέσει τις εφαρμογές που χρειάζεται και χάνει ο χρήστης σε σύγκριση με εφαρμογές Android. Για παράδειγμα, είχα στην κατοχή μου ένα κινητό Lumia XNUMX XL και συμπεριλήφθηκε στα προγράμματα συστήματος και χωρίς να χρειάζεται να προσθέσετε μια εφαρμογή ή να αγοράσετε ένα σύστημα καταγραφής κλήσεων Και επαναλαμβάνω στα προγράμματα του συστήματος, γιατί η Apple δεν ενδιαφέρεται για το τι ωφελεί περισσότερο τον χρήστη από το να σπαταλά τον χρόνο της στην περιήγηση εφαρμογών που ισχυρίζονται ότι εξυπηρετούν την κοινωνία σε μια εποχή που δημιουργούνται υποψίες για τον πραγματικό σκοπό της εφαρμογής, όπως η προστασία των παιδιών από επιβλαβείς εικόνες !!!! ???
Η αλήθεια είναι ενοχλητική.
Η Apple δεν είναι ούτε αστυνομικό τμήμα ούτε υπηρεσία πληροφοριών.
Έχει δεκάδες τρόπους για να βοηθήσει τα παιδιά.
Μπορούμε να καθησυχαστούμε αν μπορούμε να εμπιστευτούμε πλήρως την Apple και τα λόγια και τις δηλώσεις της..αλλά ..
Δεν νομίζω ότι η Apple ή άλλοι έχουν αυτή την απόλυτη ειλικρίνεια επειδή ζούμε σε έναν κόσμο γεμάτο ψέματα που διέπονται από συμφέροντα !!
Σας ευχαριστώ για αυτό το ωραίο θέμα
Ευχαριστώ πολύ
Μια εταιρεία αφιερωμένη στην καταπολέμηση της εκμετάλλευσης των παιδιών
Και εταιρείες που ενδιαφέρονται για το φορτιστή 65 watt και 200 watt
Και η κάμερα είναι 108 pixel
🙃🙃🙃
Ας ελπίσουμε ότι θα είστε καλά και θα διατηρήσετε την ιδιωτικότητα στο iPhone
Είναι αυτονόητο ότι υπενθυμίζουμε στον αγαπητό μας αναγνώστη πώς το μήλο παίρνει αποφάσεις και είναι απλώς ότι πρέπει να μελετηθούν από όλες τις νομικές και πρακτικές πτυχές, ειδικά επειδή κάθε μήλο παρέχει ένα απαράμιλλο μοντέλο στη διαχείριση της ιδιωτικής ζωής και της ασφάλειας για τον χρήστη.
Λοιπόν, αγαπητέ μου, θα πίστευες ότι το μήλο θα θυσιάσει την ιστορία του για χάρη μιας φωτογραφίας;
Αυτή η υπηρεσία είναι εξαιρετική και πολύ αξιόπιστη μετά από μια τόσο μεγάλη εξήγηση στο άρθρο, ειδικά επειδή σχετίζεται με την ασφάλεια των παιδιών και είναι προαιρετική παρεμπιπτόντως.
Εάν είστε υποστηρικτής της θεωρίας συνωμοσίας σε κάθε καινοτομία - και οι περισσότερες από αυτές στον αραβικό μας κόσμο παραμορφώνονται από υποψίες - δεν το χρειάζεστε, βάλτε την ασφάλεια των παιδιών σας στα χέρια των πραγματικών συνωμότων.
Αν καταλαβαίνετε τι ειπώθηκε, είναι εντάξει τουλάχιστον να πειραματιστείτε ή να περιμένετε μερικά χρόνια για να είστε σίγουροι.
Είναι καλύτερα για εμάς να απαλλαγούμε από τις νοοτροπίες συνωμοσίας και είναι καλύτερο για εμάς να κατανοήσουμε τις λεπτομέρειες των πραγμάτων αργά. Είναι αλήθεια ότι έχουμε συνηθίσει σε πολλές συνωμοσίες, αλλά να τυφλώνουμε τη διορατικότητα για να επεκταθούμε σε κάθε νεοφερμένο, αυτό είναι η πύλη της οπισθοδρόμησης που πρέπει να κλείσει και το ζήτημα των εμβολίων για τον κορωνοϊό δεν απέχει πολύ από αυτές τις διχόνοιες.
Αν ακολουθούσατε το θέμα, θα γνωρίζατε ότι δεν ήταν οι Άραβες που έβαλαν τις θεωρίες συνωμοσίας εδώ
Αλλά οι ίδιοι οι ιστότοποι και οι λογαριασμοί των ΗΠΑ.
Νομίζω ότι είναι καλό είναι καλό να φροντίζουμε τα παιδιά Ευχαριστώ Apple
السلام عليكم
Έχετε πρόβλημα, δεν ξέρω αν είναι πρόβλημα ή όχι
Είναι ένα iPad 8 και λειτουργεί τέλεια
Μετά την ενημέρωση της συσκευής, ήταν πιθανώς η ενημέρωση 14.5, ο ήχος των ειδοποιήσεων έγινε αδύναμος
Όταν εισάγετε τις ρυθμίσεις και ορίσετε έναν ήχο κλήσης, ο ήχος είναι πολύ δυνατός και ο ήχος των παιχνιδιών, του YouTube και όλων των προγραμμάτων
Αλλά όταν ορίζετε τον τόνο για μηνύματα, αλληλογραφία ή οτιδήποτε άλλο, ο ήχος είναι αδύναμος και ο ήχος των λογότυπων επίσης
Είναι για όλες τις συσκευές ή μόνο για τη συσκευή μου ή υπάρχει κάτι στις ρυθμίσεις που πρέπει να αλλάξει
Αυτό δεν είναι χαρακτηριστικό
Όταν τα μάτια σας είναι στραμμένα στο iPad, ο ήχος ειδοποίησης θα μειωθεί και όταν η οθόνη είναι κλειστή ή δεν το προσέχετε, ο ήχος ειδοποίησης θα είναι φυσικά δυνατός.
Εντάξει, και σε περίπτωση σφάλματος, η Apple αποζημιώνει τους χρήστες των οποίων οι φωτογραφίες έχουν υποβληθεί σε ανθρώπινο έλεγχο και των οποίων η ιδιωτικότητα έχει παραβιαστεί, βλέποντας τις φωτογραφίες τους χωρίς άδεια;
Θα ειδοποιηθούν καθόλου;
Δεν είναι ο κανόνας στους νόμους να μην ψάχνετε για απαγορευμένα πράγματα παρά μόνο εάν υπάρχει υποψία εναντίον ενός συγκεκριμένου προσώπου και για κάποιο λόγο;
Υπάρχει νόμος που επιτρέπει και αναγνωρίζει ότι η αρχή είναι ότι όλο το περιεχόμενο υπόκειται σε έλεγχο και επιθεώρηση για όλους, ακόμη και αν πρόκειται για αυτοματοποιημένο έλεγχο;
Δεν είναι οι πολίτες ίσοι ενώπιον του νόμου; Τι γίνεται με τους χρήστες άλλων συστημάτων;
Όλα γίνονται από την Apple Radi ...# Together _ Oh _ Apple
Ειρήνη και έλεος του Θεού
Πώς γνωρίζω το Mac που μελετώ στο iPhone και πώς να το προσθέσω στο δρομολογητή
Ευχαριστώ πολύ
Μεταβείτε στις γενικές ρυθμίσεις -> περίπου
Θα λάβετε μια διεύθυνση WiFi
Αναζητήστε επίσης στο Google και θα βρείτε πολλούς να εξηγούν τι ζητάτε, νομίζω ότι είναι καλύτερο να απενεργοποιήσετε την ιδιωτική διεύθυνση στις ρυθμίσεις Wi-Fi επειδή ορίζει μια διαφορετική διεύθυνση Mac με κάθε σύνδεση για να σας προστατεύει