W ciągu ostatnich dni Apple znalazło się w centrum uwagi z dużą krytyką z powodu Funkcja skanowania obrazu Dzięki swoim urządzeniom, które uruchomiła w celu ochrony dzieci i zapobiegania ich nadużyciom lub wykorzystywaniu, lub tak zwanych obrazów CSAM, a wiele organizacji zajmujących się ochroną prywatności, a nawet eksperci wyrazili zaniepokojenie przekształceniem tej funkcji w lukę, którą mogą wykorzystać hakerzy, a nawet rządy aby naruszyć prywatność użytkowników iPhone'a, a także w celu usunięcia wszelkich nieporozumień lub wyjaśnienia i wyjaśnienia rzeczy poprawnie.Apple uruchomił plik w postaci często zadawanych pytań, który wyjaśnia wszystko na temat jego nowej funkcji i tego, co dzieje się za kulisami, i dowiedzmy się wszystkiego o funkcji bezpieczeństwa dzieci i czy rzeczywiście zagraża ona prywatności użytkowników, czy nie.
Jaka jest różnica między Message Protection a CSAM w Zdjęciach iCloud?
Te dwie funkcje różnią się od siebie i nie korzystają z tej samej technologii, co Bezpieczeństwo komunikacji w Wiadomościach zostało zaprojektowane, aby zapewnić rodzicom i dzieciom dodatkowe narzędzia, które pomagają chronić ich dzieci przed wysyłaniem i odbieraniem w aplikacji Wiadomości obrazów o charakterze jednoznacznie seksualnym. Działa tylko na zdjęciach wysłanych lub otrzymanych w aplikacji Wiadomości na kontach dzieci skonfigurowanych za pomocą funkcji Family Sharing, a następnie analizuje zdjęcia na urządzeniu, a tym samym nie naraża prywatności wiadomości. Chcą obejrzeć lub wysłać zdjęcie, a jako dodatkowy środek ostrożności, małe dzieci mogą również zostać poinformowane, że dla ich własnego bezpieczeństwa rodzice otrzymają wiadomość, jeśli ją zobaczą.
Druga funkcja, CSAM Photo Scan w iCloud, ma na celu utrzymanie CSAM poza zdjęciami iCloud bez dostarczania Apple informacji o jakichkolwiek zdjęciach innych niż te, które pasują do znanych zdjęć CSAM. Posiadanie obrazów CSAM jest nielegalne w większości krajów, w tym w Stanach Zjednoczonych. Ponadto ta funkcja dotyczy tylko użytkowników, którzy zdecydowali się używać Zdjęć iCloud do przechowywania swoich zdjęć, i nie ma wpływu na użytkowników, którzy nie zdecydowali się korzystać ze Zdjęć iCloud. Nie ma to wpływu na żadne inne dane na urządzeniu i ta funkcja nie dotyczy wiadomości.
Kto może używać zabezpieczeń połączeń w wiadomościach?
Bezpieczeństwo komunikacji w Wiadomościach jest dostępne tylko dla kont skonfigurowanych jako rodziny w iCloud. Rodzice lub opiekunowie muszą włączyć tę funkcję dla rodziny, a powiadomienia rodziców mogą być włączane tylko przez rodziców lub opiekunów w przypadku kont dzieci w wieku 12 lat lub młodszych.
Czy to oznacza, że wiadomości zostaną udostępnione Apple lub organom ścigania?
Oczywiście, że nie, Apple nigdy nie będzie mógł uzyskać dostępu do informacji w Wiadomościach w wyniku tej funkcji w Wiadomościach. Ta funkcja nie udostępnia żadnych informacji Apple, NCMEC ani organom ścigania. Funkcja zabezpieczeń komunikacji w Wiadomościach jest oddzielna od funkcji CSAM do skanowania zdjęć w usłudze iCloud.
Czy to łamie kompleksowe szyfrowanie w aplikacji Wiadomości?
Nie. Nie prowadzi to do naruszenia prywatności wiadomości, a dzięki tej funkcji firma Apple nigdy nie będzie mogła uzyskać dostępu do Twoich kontaktów. Każdy użytkownik aplikacji Wiadomości, w tym ci, którzy mają włączone zabezpieczenia kontaktów, ma pełną kontrolę nad tym, co jest wysyłane i do kogo.
Jeśli ta funkcja jest włączona dla konta dziecka, urządzenie oceni obrazy w wiadomościach i zapewni interwencję, jeśli obraz zostanie zidentyfikowany jako nieodpowiedni.Jest nieodpowiedni i Apple nie może uzyskać dostępu do wiadomości, zakłócać powiadomień ani oceniać zdjęć.
Czy ta funkcja uniemożliwia krzywdzonym dzieciom szukanie pomocy?
Funkcja zabezpieczenia połączenia dotyczy tylko zdjęć o charakterze jednoznacznie seksualnym udostępnianych lub otrzymywanych w wiadomościach i nie ma nic wspólnego z innymi aplikacjami, których ofiary mogą używać do szukania pomocy, w tym wiadomości tekstowych. Instrukcje, jak szukać pomocy.
Czy rodzice zostaną powiadomieni bez ostrzeżenia dzieci i pozostawienia im wyboru?
Nie. O nie; Konta rodzica lub opiekuna muszą zostać zarejestrowane, aby umożliwić bezpieczeństwo komunikacji w wiadomościach Powiadomienia rodzicielskie są włączone dla kont dzieci w wieku 12 lat lub młodszych, ale przed wysłaniem lub odebraniem wszelkich nieprzyzwoitych lub nieodpowiednich zdjęć dziecko jest ostrzegane, że jeśli będzie kontynuować Wyświetl lub wyślij obraz, powiadomienie zostanie wysłane do ich rodziców, a jeśli dziecko będzie nadal wysyłać lub oglądać obraz po tym ostrzeżeniu, rodzice zostaną powiadomieni W przypadku kont dzieci w wieku 13-17 dziecko jest nadal ostrzegane i pytane, czy chciałby obejrzeć lub udostępnić zdjęcie o charakterze seksualnym, ale rodzice nie zostali o tym powiadomieni.
Czy to oznacza, że Apple sprawdzi wszystkie zdjęcia zapisane na moim urządzeniu?
Ta funkcja dotyczy tylko zdjęć, które użytkownik zdecyduje się przesłać do iCloud.Funkcja nie działa z użytkownikami, którzy mają wyłączone zdjęcia iCloud, a także nie działa w bibliotece zdjęć na iPhonie.
Czy obrazy CSAM pobrane na moje urządzenie pasują do moich obrazów?
Nie, obrazy CSAM nie są przechowywane ani wysyłane do urządzenia. Zamiast rzeczywistych obrazów Apple używa nieczytelnych skrótów przechowywanych na urządzeniu. Te skróty to ciągi liczb, które reprezentują znane obrazy CSAM, ale nie można ich ponownie odczytać ani przekonwertować na nieistotne obrazy. Ten zestaw skrótów obrazów jest oparty na obrazach uzyskanych i zweryfikowanych jako CSAM przez organizacje zajmujące się bezpieczeństwem dzieci. Dzięki nowym aplikacjom szyfrowania Apple może używać tych skrótów tylko do identyfikowania kont iCloud, które przechowują partie zdjęć pasujących do znanych zdjęć CSAM, a następnie być w stanie zidentyfikować tylko nieodpowiednie zdjęcia dzieci bez rozpoznawania lub oglądania innych zdjęć.
dlaczego teraz?
Jednym z największych wyzwań Apple jest pomoc w ochronie dzieci przy jednoczesnym zachowaniu prywatności użytkowników. Dzięki nowej funkcji Apple wykryje zdjęcia CSAM przechowywane w iCloud, a firma nie dowie się niczego o innych danych przechowywanych na Twoim urządzeniu.
Istniejące technologie, na których opierają się inne firmy, skanują wszystkie obrazy użytkowników przechowywane w chmurze. Stwarza to zagrożenia dla prywatności użytkowników, ale jest inne w przypadku funkcji skanowania zdjęć firmy Apple, na przykład niemożności rozpoznania zdjęć, chyba że oba pasują do znanych zdjęć CSAM i są uwzględnione na koncie iCloud, które zawiera wiele kanonicznych zdjęć CSAM.
Czy system wykrywania obrazów CSAM iCloud może być używany do wykrywania innych rzeczy?
Apple powiedział, że projekt procesu, aby temu zapobiec. Wykrywanie obrazów CSAM jest przeznaczone dla obrazów iCloud, dzięki czemu system działa tylko z hashami obrazów CSAM dostarczonymi przez NCMEC i inne organizacje zajmujące się bezpieczeństwem dzieci.
Ten zestaw skrótów obrazów jest oparty na obrazach uzyskanych i zweryfikowanych jako CSAM przez organizacje zajmujące się bezpieczeństwem dzieci. Nie ma automatycznego zgłaszania organom ścigania, a Apple przeprowadza weryfikację ludzką przed przesłaniem zgłoszenia do National Center for Missing and Exploited Children (NCMEC).
W rezultacie system jest przeznaczony tylko do zgłaszania zdjęć znanych jako CSAM w Zdjęciach iCloud. W większości krajów, w tym w Stanach Zjednoczonych, posiadanie takich zdjęć jest przestępstwem, a firma Apple ma obowiązek zgłaszania wszelkich znanych nam przypadków odpowiednim władzom.
Czy rządy mogą zmusić Apple do dodania obrazów innych niż CSAM do pliku listy skrótów?
Apple odrzuci takie żądania. Funkcja wykrywania CSAM służy do wykrywania tylko znanych zdjęć CSAM przechowywanych w Zdjęciach iCloud, które zostały zidentyfikowane przez ekspertów z NCMEC i innych grup zajmujących się bezpieczeństwem dzieci.
Już wcześniej spotykaliśmy się z żądaniami stworzenia i opublikowania narzuconych przez rząd zmian, które podważają prywatność użytkowników i stanowczo odrzucaliśmy te żądania. W przyszłości będziemy go nadal odrzucać. Aby było jasne, ta technologia ogranicza się do wykrywania CSAM przechowywanych w iCloud i nie będziemy zatwierdzać żadnych wniosków rządowych, które mogą obejmować inne pliki.
Ponadto Apple przeprowadza ocenę ludzką przed przesłaniem raportu do NCMEC. Jeśli system oznaczy obrazy, które nie pasują do znanych obrazów CSAM, konto nie zostanie wyłączone i żaden raport nie zostanie przesłany do NCMEC.
Czy CSAM można dostosować do innych rzeczy lub konkretnych osób?
Nasz proces został zaprojektowany, aby temu zapobiec. Skróty obrazów używane do dopasowywania są pobierane ze znanych i istniejących obrazów CSAM, które zostały uzyskane i zweryfikowane przez organizacje zajmujące się bezpieczeństwem dzieci, a ten sam skrót jest przechowywany w systemie operacyjnym każdego użytkownika iPhone'a i iPada, więc ukierunkowane ataki są skierowane tylko przeciwko określonym osobom Nie umożliwione przez nasz projekt i nie ma automatycznego zgłaszania organom ścigania, Apple przeprowadza weryfikację ludzką przed przesłaniem zgłoszenia, a jeśli system prawdopodobnie nie oznaczy obrazów, które nie pasują do znanych obrazów CSAM, konto nie zostanie wyłączone i żaden raport nie zostanie złożony.
Czy niewinni ludzie mogą się pomylić z powodu tej funkcji?
Nie, system został zaprojektowany tak, aby był niezwykle dokładny, a prawdopodobieństwo nieprawidłowego oflagowania dowolnego konta przez system jest mniejsze niż jedno na każdy bilion kont rocznie.Ponadto za każdym razem, gdy konto jest oflagowane przez system, Apple prowadzi człowieka sprawdź przed Prześlij swój raport do NCMEC, w wyniku czego błędy systemu lub ataki nie spowodują zgłoszenia niewinnych.
Źródło:
Ten artykuł w dużym stopniu upewnił mnie, że Apple i inne osoby nie korzystają z prywatności
Widzę, że jest to chybiony szczegół i wysiłek.Pierwszą rzeczą jest to, że Apple zintensyfikuje swoje wysiłki w celu szybkiego rozwiązania problemu szybkiego rozładowywania baterii i dodaje aplikacje, których użytkownik potrzebuje i których brakuje w porównaniu do aplikacji na Androida.Na przykład posiadałem mobilna Lumia XNUMX XL i została włączona do programów systemowych i to bez konieczności dodawania aplikacji czy kupowania systemu nagrywania rozmów I powtarzam w ramach programów systemowych, dlaczego Apple nie dba o to, jakie korzyści dla użytkownika bardziej niż marnowanie czasu w aplikacjach do przeglądania, które twierdzą, że służą społeczeństwu w czasie, gdy pojawiają się podejrzenia co do prawdziwego celu aplikacji, takiego jak ochrona dzieci przed szkodliwymi obrazami!!!!???
Prawda jest niepokojąca.
Apple nie jest ani posterunkiem policji, ani agencją wywiadowczą.
Ma dziesiątki sposobów pomocy dzieciom.
Możemy być uspokojeni, jeśli możemy w pełni zaufać Apple oraz jego słowom i wypowiedziom… ale…
Nie sądzę, aby Apple lub inni mieli taką absolutną uczciwość, ponieważ żyjemy w świecie pełnym kłamstw, którymi rządzą interesy!!
Dziękuję za ten fajny temat
Dziękuję za wysiłek
Firma zajmująca się zwalczaniem wykorzystywania dzieci
Oraz firmy zainteresowane ładowarką 65 watów i 200 watów
A aparat ma 108 pikseli
🙃🙃🙃.
Mamy nadzieję, że wszystko będzie dobrze i zachowasz prywatność na iPhonie
Nie trzeba dodawać, że przypominamy naszemu drogiemu czytelnikowi, w jaki sposób jabłko podejmuje decyzje, i po prostu należy je zbadać pod kątem wszystkich aspektów prawnych i praktycznych, zwłaszcza że każde jabłko zapewnia niezrównany model zarządzania prywatnością i bezpieczeństwem użytkownika.
Więc moja droga, czy uwierzysz, że jabłko poświęci swoją historię dla fotografii?
Ta usługa jest świetna i bardzo niezawodna po tak długim wyjaśnieniu w artykule, zwłaszcza, że dotyczy bezpieczeństwa dzieci i jest opcjonalna.
Jeśli jesteś zwolennikiem teorii spiskowej w każdej innowacji – a większość z nich jest w naszym świecie arabskim wypaczonym przez podejrzenia – nie potrzebujesz tego, oddaj bezpieczeństwo swoich dzieci w ręce prawdziwych spiskowców.
Jeśli rozumiesz, co zostało powiedziane, możesz przynajmniej poeksperymentować lub poczekać kilka lat, aby się upewnić.
Lepiej jest dla nas pozbyć się mentalności spiskowej i lepiej dla nas zrozumieć szczegóły rzeczy powoli.To prawda, że jesteśmy przyzwyczajeni do wielu spisków, ale zaślepianie wglądu rozciągającego się na każdego przybysza, to jest brama zacofania, którą trzeba zamknąć, a sprawa szczepionek koronowych nie jest odległa od tych polemik.
Gdybyś śledził temat, wiedziałbyś, że to nie Arabowie umieścili tu teorie spiskowe
Ale same strony i konta w USA.
Myślę, że to dobrze, że dobrze jest opiekować się dziećmi Dziękuję Apple 👏🏻
السلام عليكم
Masz problem, nie wiem czy to problem czy nie
To iPad 8 i działa świetnie
Po aktualizacji urządzenia była to chyba aktualizacja 14.5, dźwięk powiadomień stał się słaby
Po wejściu w ustawienia i ustawieniu dzwonka dźwięk jest bardzo mocny, a dźwięk gier, YouTube i wszystkich programów
Ale kiedy ustawisz ton wiadomości, poczty lub czegokolwiek innego, dźwięk jest słaby, a także dźwięk logo
Czy to dotyczy wszystkich urządzeń, czy tylko mojego urządzenia, czy jest coś w ustawieniach, które należy zmienić?
To nie jest funkcja
Gdy Twoje oczy będą skierowane na iPada, dźwięk powiadomienia zostanie przyciemniony, a gdy ekran jest wyłączony lub nie zwracasz na niego uwagi, dźwięk powiadomienia będzie naturalnie głośny.
Ok, a w przypadku błędu, czy Apple rekompensuje użytkownikom, których zdjęcia zostały poddane ocenie przez człowieka i których prywatność została naruszona, wyświetlając ich zdjęcia bez pozwolenia?
Czy w ogóle zostaną powiadomieni?
Czy nie jest zasadą przewidzianą w prawie, aby nie szukać rzeczy zabronionych, chyba że w przypadku podejrzenia wobec konkretnej osoby i z jakiegoś powodu?
Czy istnieje prawo, które zezwala i uznaje, że zasadą jest poddanie wszystkich treści kontroli i inspekcji dla wszystkich ludzi, nawet jeśli jest to kontrola automatyczna?
Czy obywatele nie są równi wobec prawa? A co z użytkownikami innych systemów?
Wszystko robi Apple Radi...# Razem _ Och _ Apple 🎧💪🏻
Pokój i miłosierdzie Boże
Skąd mam poznać komputer Mac, którego studiuję na iPhonie i jak dodać go do routera?
Dziękuję Ci bardzo
Przejdź do ustawień ogólnych -> informacje
Otrzymasz adres WiFi
Szukaj także w Google, a znajdziesz wiele wyjaśniających, o co prosisz, myślę, że lepiej wyłączyć prywatny adres w ustawieniach Wi-Fi, ponieważ ustawia inny adres Maca przy każdym połączeniu, aby Cię chronić