Oczekuje się, że Apple uruchomi swoją funkcję Nowy CSAM dotyczący bezpieczeństwa dzieci Jeszcze w tym roku, a konkretnie wraz z premierą iOS 15, ale jeden z programistów powiedział, że znalazł algorytm, dzięki któremu ta funkcja działa w starszych wersjach systemu operacyjnego iPhone i wykrył usterkę i usterkę techniczną w tej technologii. Czym więc jest ta wada i jaka była odpowiedź Apple?

Wykryto lukę w technologii Apple przeciwdziałającej wykorzystywaniu dzieci, na co Apple odpowiada


Funkcja analizy i skanowania obrazu CSAM

Użytkownik Reddit twierdzi, że odkrył wersję algorytmu NeuralHash używanego do wykrywania obrazów CSAM w systemie iOS 14.3.

Odpowiedź Apple brzmiała: Rozpakowana wersja nie jest aktualna i nie będzie używana.

Deweloper znany jako AsuharietYgvar był w stanie znaleźć kod NerualHash ukryty w systemie iOS 14.3 i powiedział, że dokonał inżynierii wstecznej kodu i zrekonstruował działający model w Pythonie, który można przetestować, przekazując obrazy tych kodów.

Deweloper twierdzi, że ten algorytm nie jest oszukiwany przez kompresję obrazu lub zmianę rozmiaru, ale nie może wykryć procesu przycinania lub obracania obrazu. Korzystając z języka Python, użytkownicy platformy GitHub zaczęli badać, jak działa algorytm i czy można go niewłaściwie wykorzystać i wykorzystać w sposób zagrażający właścicielom iPhone'a.Zużyte i całkowicie niewinne zdjęcie, ale oszukuje kody Apple i tworzy dopasowanie z kodami CSAM , więc teoretycznie haker może wysłać te bardzo naturalnie wyglądające zdjęcia jako tapetę urządzenia lub normalny krajobraz użytkownikom Apple, aby spróbować uruchomić algorytm i uwięzić je i spowodować problemy.


Nie ostateczna wersja

Mimo tych niedociągnięć można powiedzieć, że odkryty algorytm nie jest wersją ostateczną, ponieważ Apple od lat buduje algorytm wykrywania obrazów CSAM, więc podobno będą jakieś wersje kodu do testów.

Jeśli chodzi o możliwość tworzenia fałszywych zdjęć i wysyłania ich użytkownikom iPhone'a w celu ich uwięzienia, nie jest to takie proste, ponieważ Apple nie ujawnia zdjęć, chyba że są zsynchronizowane z chmurą i nie zapomnij o ludzkiej recenzji, aby upewnić się, że zdjęcia faktycznie zawierają znęcanie się nad dziećmi, wszystko to oznacza, że ​​atak, który jest uważany za prawdziwy w teorii, ale trudny w praktyce.


Apple odpowiedział

Apple powiedział w oświadczeniu, że kod NeuralHash wykryty w iOS 14.3 nie jest wersją ostateczną, nikt też nie odkrył jeszcze istnienia bazy danych CSAM ani algorytmu dopasowującego w wersji beta iOS 15, ale funkcja ma zostać uruchomiona w jego pełna wersja po pojawieniu się systemu Nowe uruchomienie iOS 15.

Co sądzisz o nowej funkcji bezpieczeństwa dzieci firmy Apple i czy istnieje obawa, że ​​może ona zostać niewłaściwie użyta, powiedz nam w komentarzach

Źródło:

wice

Powiązane artykuły