W ciągu ostatnich dni Apple znalazło się w centrum uwagi z dużą krytyką z powodu Funkcja skanowania obrazu Dzięki swoim urządzeniom, które uruchomiła w celu ochrony dzieci i zapobiegania ich nadużyciom lub wykorzystywaniu, lub tak zwanych obrazów CSAM, a wiele organizacji zajmujących się ochroną prywatności, a nawet eksperci wyrazili zaniepokojenie przekształceniem tej funkcji w lukę, którą mogą wykorzystać hakerzy, a nawet rządy aby naruszyć prywatność użytkowników iPhone'a, a także w celu usunięcia wszelkich nieporozumień lub wyjaśnienia i wyjaśnienia rzeczy poprawnie.Apple uruchomił plik w postaci często zadawanych pytań, który wyjaśnia wszystko na temat jego nowej funkcji i tego, co dzieje się za kulisami, i dowiedzmy się wszystkiego o funkcji bezpieczeństwa dzieci i czy rzeczywiście zagraża ona prywatności użytkowników, czy nie.

Apple odpowiada na oskarżenia o naruszenie prywatności w swojej funkcji przeciwdziałania wykorzystywaniu dzieci


Jaka jest różnica między Message Protection a CSAM w Zdjęciach iCloud?

Te dwie funkcje różnią się od siebie i nie korzystają z tej samej technologii, co Bezpieczeństwo komunikacji w Wiadomościach zostało zaprojektowane, aby zapewnić rodzicom i dzieciom dodatkowe narzędzia, które pomagają chronić ich dzieci przed wysyłaniem i odbieraniem w aplikacji Wiadomości obrazów o charakterze jednoznacznie seksualnym. Działa tylko na zdjęciach wysłanych lub otrzymanych w aplikacji Wiadomości na kontach dzieci skonfigurowanych za pomocą funkcji Family Sharing, a następnie analizuje zdjęcia na urządzeniu, a tym samym nie naraża prywatności wiadomości. Chcą obejrzeć lub wysłać zdjęcie, a jako dodatkowy środek ostrożności, małe dzieci mogą również zostać poinformowane, że dla ich własnego bezpieczeństwa rodzice otrzymają wiadomość, jeśli ją zobaczą.

Druga funkcja, CSAM Photo Scan w iCloud, ma na celu utrzymanie CSAM poza zdjęciami iCloud bez dostarczania Apple informacji o jakichkolwiek zdjęciach innych niż te, które pasują do znanych zdjęć CSAM. Posiadanie obrazów CSAM jest nielegalne w większości krajów, w tym w Stanach Zjednoczonych. Ponadto ta funkcja dotyczy tylko użytkowników, którzy zdecydowali się używać Zdjęć iCloud do przechowywania swoich zdjęć, i nie ma wpływu na użytkowników, którzy nie zdecydowali się korzystać ze Zdjęć iCloud. Nie ma to wpływu na żadne inne dane na urządzeniu i ta funkcja nie dotyczy wiadomości.


Kto może używać zabezpieczeń połączeń w wiadomościach?

Bezpieczeństwo komunikacji w Wiadomościach jest dostępne tylko dla kont skonfigurowanych jako rodziny w iCloud. Rodzice lub opiekunowie muszą włączyć tę funkcję dla rodziny, a powiadomienia rodziców mogą być włączane tylko przez rodziców lub opiekunów w przypadku kont dzieci w wieku 12 lat lub młodszych.


Czy to oznacza, że ​​wiadomości zostaną udostępnione Apple lub organom ścigania?

Oczywiście, że nie, Apple nigdy nie będzie mógł uzyskać dostępu do informacji w Wiadomościach w wyniku tej funkcji w Wiadomościach. Ta funkcja nie udostępnia żadnych informacji Apple, NCMEC ani organom ścigania. Funkcja zabezpieczeń komunikacji w Wiadomościach jest oddzielna od funkcji CSAM do skanowania zdjęć w usłudze iCloud.


Czy to łamie kompleksowe szyfrowanie w aplikacji Wiadomości?

Nie. Nie prowadzi to do naruszenia prywatności wiadomości, a dzięki tej funkcji firma Apple nigdy nie będzie mogła uzyskać dostępu do Twoich kontaktów. Każdy użytkownik aplikacji Wiadomości, w tym ci, którzy mają włączone zabezpieczenia kontaktów, ma pełną kontrolę nad tym, co jest wysyłane i do kogo.

 Jeśli ta funkcja jest włączona dla konta dziecka, urządzenie oceni obrazy w wiadomościach i zapewni interwencję, jeśli obraz zostanie zidentyfikowany jako nieodpowiedni.Jest nieodpowiedni i Apple nie może uzyskać dostępu do wiadomości, zakłócać powiadomień ani oceniać zdjęć.


Czy ta funkcja uniemożliwia krzywdzonym dzieciom szukanie pomocy?

Funkcja zabezpieczenia połączenia dotyczy tylko zdjęć o charakterze jednoznacznie seksualnym udostępnianych lub otrzymywanych w wiadomościach i nie ma nic wspólnego z innymi aplikacjami, których ofiary mogą używać do szukania pomocy, w tym wiadomości tekstowych. Instrukcje, jak szukać pomocy.


Czy rodzice zostaną powiadomieni bez ostrzeżenia dzieci i pozostawienia im wyboru?

Nie. O nie; Konta rodzica lub opiekuna muszą zostać zarejestrowane, aby umożliwić bezpieczeństwo komunikacji w wiadomościach Powiadomienia rodzicielskie są włączone dla kont dzieci w wieku 12 lat lub młodszych, ale przed wysłaniem lub odebraniem wszelkich nieprzyzwoitych lub nieodpowiednich zdjęć dziecko jest ostrzegane, że jeśli będzie kontynuować Wyświetl lub wyślij obraz, powiadomienie zostanie wysłane do ich rodziców, a jeśli dziecko będzie nadal wysyłać lub oglądać obraz po tym ostrzeżeniu, rodzice zostaną powiadomieni W przypadku kont dzieci w wieku 13-17 dziecko jest nadal ostrzegane i pytane, czy chciałby obejrzeć lub udostępnić zdjęcie o charakterze seksualnym, ale rodzice nie zostali o tym powiadomieni.


Czy to oznacza, że ​​Apple sprawdzi wszystkie zdjęcia zapisane na moim urządzeniu?

Ta funkcja dotyczy tylko zdjęć, które użytkownik zdecyduje się przesłać do iCloud.Funkcja nie działa z użytkownikami, którzy mają wyłączone zdjęcia iCloud, a także nie działa w bibliotece zdjęć na iPhonie.


Czy obrazy CSAM pobrane na moje urządzenie pasują do moich obrazów?

Nie, obrazy CSAM nie są przechowywane ani wysyłane do urządzenia. Zamiast rzeczywistych obrazów Apple używa nieczytelnych skrótów przechowywanych na urządzeniu. Te skróty to ciągi liczb, które reprezentują znane obrazy CSAM, ale nie można ich ponownie odczytać ani przekonwertować na nieistotne obrazy. Ten zestaw skrótów obrazów jest oparty na obrazach uzyskanych i zweryfikowanych jako CSAM przez organizacje zajmujące się bezpieczeństwem dzieci. Dzięki nowym aplikacjom szyfrowania Apple może używać tych skrótów tylko do identyfikowania kont iCloud, które przechowują partie zdjęć pasujących do znanych zdjęć CSAM, a następnie być w stanie zidentyfikować tylko nieodpowiednie zdjęcia dzieci bez rozpoznawania lub oglądania innych zdjęć.


dlaczego teraz?

Jednym z największych wyzwań Apple jest pomoc w ochronie dzieci przy jednoczesnym zachowaniu prywatności użytkowników. Dzięki nowej funkcji Apple wykryje zdjęcia CSAM przechowywane w iCloud, a firma nie dowie się niczego o innych danych przechowywanych na Twoim urządzeniu.

Istniejące technologie, na których opierają się inne firmy, skanują wszystkie obrazy użytkowników przechowywane w chmurze. Stwarza to zagrożenia dla prywatności użytkowników, ale jest inne w przypadku funkcji skanowania zdjęć firmy Apple, na przykład niemożności rozpoznania zdjęć, chyba że oba pasują do znanych zdjęć CSAM i są uwzględnione na koncie iCloud, które zawiera wiele kanonicznych zdjęć CSAM.


Czy system wykrywania obrazów CSAM iCloud może być używany do wykrywania innych rzeczy?

Apple powiedział, że projekt procesu, aby temu zapobiec. Wykrywanie obrazów CSAM jest przeznaczone dla obrazów iCloud, dzięki czemu system działa tylko z hashami obrazów CSAM dostarczonymi przez NCMEC i inne organizacje zajmujące się bezpieczeństwem dzieci.

Ten zestaw skrótów obrazów jest oparty na obrazach uzyskanych i zweryfikowanych jako CSAM przez organizacje zajmujące się bezpieczeństwem dzieci. Nie ma automatycznego zgłaszania organom ścigania, a Apple przeprowadza weryfikację ludzką przed przesłaniem zgłoszenia do National Center for Missing and Exploited Children (NCMEC).

W rezultacie system jest przeznaczony tylko do zgłaszania zdjęć znanych jako CSAM w Zdjęciach iCloud. W większości krajów, w tym w Stanach Zjednoczonych, posiadanie takich zdjęć jest przestępstwem, a firma Apple ma obowiązek zgłaszania wszelkich znanych nam przypadków odpowiednim władzom.


Czy rządy mogą zmusić Apple do dodania obrazów innych niż CSAM do pliku listy skrótów?

Apple odrzuci takie żądania. Funkcja wykrywania CSAM służy do wykrywania tylko znanych zdjęć CSAM przechowywanych w Zdjęciach iCloud, które zostały zidentyfikowane przez ekspertów z NCMEC i innych grup zajmujących się bezpieczeństwem dzieci.

Już wcześniej spotykaliśmy się z żądaniami stworzenia i opublikowania narzuconych przez rząd zmian, które podważają prywatność użytkowników i stanowczo odrzucaliśmy te żądania. W przyszłości będziemy go nadal odrzucać. Aby było jasne, ta technologia ogranicza się do wykrywania CSAM przechowywanych w iCloud i nie będziemy zatwierdzać żadnych wniosków rządowych, które mogą obejmować inne pliki.

Ponadto Apple przeprowadza ocenę ludzką przed przesłaniem raportu do NCMEC. Jeśli system oznaczy obrazy, które nie pasują do znanych obrazów CSAM, konto nie zostanie wyłączone i żaden raport nie zostanie przesłany do NCMEC.


Czy CSAM można dostosować do innych rzeczy lub konkretnych osób?

Nasz proces został zaprojektowany, aby temu zapobiec. Skróty obrazów używane do dopasowywania są pobierane ze znanych i istniejących obrazów CSAM, które zostały uzyskane i zweryfikowane przez organizacje zajmujące się bezpieczeństwem dzieci, a ten sam skrót jest przechowywany w systemie operacyjnym każdego użytkownika iPhone'a i iPada, więc ukierunkowane ataki są skierowane tylko przeciwko określonym osobom Nie umożliwione przez nasz projekt i nie ma automatycznego zgłaszania organom ścigania, Apple przeprowadza weryfikację ludzką przed przesłaniem zgłoszenia, a jeśli system prawdopodobnie nie oznaczy obrazów, które nie pasują do znanych obrazów CSAM, konto nie zostanie wyłączone i żaden raport nie zostanie złożony.


Czy niewinni ludzie mogą się pomylić z powodu tej funkcji?

Nie, system został zaprojektowany tak, aby był niezwykle dokładny, a prawdopodobieństwo nieprawidłowego oflagowania dowolnego konta przez system jest mniejsze niż jedno na każdy bilion kont rocznie.Ponadto za każdym razem, gdy konto jest oflagowane przez system, Apple prowadzi człowieka sprawdź przed Prześlij swój raport do NCMEC, w wyniku czego błędy systemu lub ataki nie spowodują zgłoszenia niewinnych.

Co sądzisz o nowej funkcji Apple do wykrywania nieodpowiednich obrazów dla dzieci, powiedz nam w komentarzach

Źródło:

jabłko

Powiązane artykuły