Oczekuje się, że Apple uruchomi swoją funkcję Nowy CSAM dotyczący bezpieczeństwa dzieci Jeszcze w tym roku, a konkretnie wraz z premierą iOS 15, ale jeden z programistów powiedział, że znalazł algorytm, dzięki któremu ta funkcja działa w starszych wersjach systemu operacyjnego iPhone i wykrył usterkę i usterkę techniczną w tej technologii. Czym więc jest ta wada i jaka była odpowiedź Apple?
Funkcja analizy i skanowania obrazu CSAM
Użytkownik Reddit twierdzi, że odkrył wersję algorytmu NeuralHash używanego do wykrywania obrazów CSAM w systemie iOS 14.3.
Odpowiedź Apple brzmiała: Rozpakowana wersja nie jest aktualna i nie będzie używana.
Deweloper znany jako AsuharietYgvar był w stanie znaleźć kod NerualHash ukryty w systemie iOS 14.3 i powiedział, że dokonał inżynierii wstecznej kodu i zrekonstruował działający model w Pythonie, który można przetestować, przekazując obrazy tych kodów.
Deweloper twierdzi, że ten algorytm nie jest oszukiwany przez kompresję obrazu lub zmianę rozmiaru, ale nie może wykryć procesu przycinania lub obracania obrazu. Korzystając z języka Python, użytkownicy platformy GitHub zaczęli badać, jak działa algorytm i czy można go niewłaściwie wykorzystać i wykorzystać w sposób zagrażający właścicielom iPhone'a.Zużyte i całkowicie niewinne zdjęcie, ale oszukuje kody Apple i tworzy dopasowanie z kodami CSAM , więc teoretycznie haker może wysłać te bardzo naturalnie wyglądające zdjęcia jako tapetę urządzenia lub normalny krajobraz użytkownikom Apple, aby spróbować uruchomić algorytm i uwięzić je i spowodować problemy.
Nie ostateczna wersja
Mimo tych niedociągnięć można powiedzieć, że odkryty algorytm nie jest wersją ostateczną, ponieważ Apple od lat buduje algorytm wykrywania obrazów CSAM, więc podobno będą jakieś wersje kodu do testów.
Jeśli chodzi o możliwość tworzenia fałszywych zdjęć i wysyłania ich użytkownikom iPhone'a w celu ich uwięzienia, nie jest to takie proste, ponieważ Apple nie ujawnia zdjęć, chyba że są zsynchronizowane z chmurą i nie zapomnij o ludzkiej recenzji, aby upewnić się, że zdjęcia faktycznie zawierają znęcanie się nad dziećmi, wszystko to oznacza, że atak, który jest uważany za prawdziwy w teorii, ale trudny w praktyce.
Apple odpowiedział
Apple powiedział w oświadczeniu, że kod NeuralHash wykryty w iOS 14.3 nie jest wersją ostateczną, nikt też nie odkrył jeszcze istnienia bazy danych CSAM ani algorytmu dopasowującego w wersji beta iOS 15, ale funkcja ma zostać uruchomiona w jego pełna wersja po pojawieniu się systemu Nowe uruchomienie iOS 15.
Źródło:
Aresztują mnie za jedzenie dzieci, ponieważ mój telefon komórkowy jest pełen filmów i bawię się z moimi dziećmi, jakbym je jadł hahahahahaha
Apple wciąż nie powiedział nic o powiadamianiu i wynagradzaniu użytkowników, których zdjęcia zostały poddane ocenie przez człowieka i okazały się niewinne.
Czy Apple zrekompensuje im naruszenie ich prywatności, pokazując pracownikom Apple ich prywatne zdjęcia?
Oczywiście będzie on używany do wyszukiwania innych rzeczy i bez naszej wiedzy, a kraje mogą go używać do wyszukiwania czegokolwiek innego.
Apple nie jest aniołem, a ostatecznie jest firmą wyzyskującą, która jest zainteresowana tylko zbieraniem pieniędzy
Dziękuję za wysiłek i korzyści