Apple wird voraussichtlich seine Funktion einführen Neue Kindersicherheit CSAM Später in diesem Jahr, speziell mit der Einführung von iOS 15, sagte jedoch einer der Entwickler, dass er den Algorithmus, durch den die Funktion in älteren Versionen des iPhone-Betriebssystems funktioniert, gefunden und einen Fehler und einen technischen Fehler in dieser Technologie entdeckt hat. Was ist dieser Defekt und wie hat Apple darauf reagiert?

In Apples Anti-Kind-Missbrauchs-Technologie wurde ein Fehler entdeckt, und Apple antwortet


CSAM-Bildanalyse- und Scanfunktion

Ein Reddit-Benutzer sagt, er habe eine Version des NeuralHash-Algorithmus entdeckt, der verwendet wird, um CSAM-Bilder in iOS 14.3 zu erkennen.

Apples Antwort war: Die extrahierte Version ist nicht aktuell und wird nicht verwendet.

Der als AsuharietYgvar bekannte Entwickler konnte NerualHash-Code finden, der in iOS 14.3 vergraben ist, und sagte, dass er den Code zurückentwickelt und ein Arbeitsmodell in Python rekonstruiert hat, das durch Übergabe von Bildern dieser Codes getestet werden kann.

Der Entwickler behauptet, dass dieser Algorithmus nicht durch Bildkomprimierung oder Größenänderung getäuscht wird, aber er kann den Prozess des Zuschneidens oder Drehens des Bildes nicht erkennen. Unter Verwendung der Sprache Python begannen die Benutzer der GitHub-Plattform zu untersuchen, wie der Algorithmus funktioniert und ob er missbraucht und auf eine Weise ausgenutzt werden kann, die iPhone-Besitzer bedroht , also könnte ein Hacker theoretisch diese sehr natürlich aussehenden Fotos als Hintergrundbild Ihres Geräts oder als normale Landschaft an Apple-Benutzer senden, um zu versuchen, den Algorithmus auszuführen und sie abzufangen und ihnen Probleme zu bereiten.


Nicht die endgültige Version

Trotz dieser Mängel kann gesagt werden, dass der entdeckte Algorithmus nicht die endgültige Version ist, da Apple den CSAM-Bilderkennungsalgorithmus seit Jahren entwickelt, sodass es einige Versionen des Codes zum Testen geben soll.

Die Möglichkeit, gefälschte Fotos zu erstellen und sie an iPhone-Benutzer zu senden, um sie zu fangen, ist nicht so einfach, da Apple die Fotos nicht preisgibt, es sei denn, sie werden mit der Cloud synchronisiert und vergessen nicht die menschliche Überprüfung, um sicherzustellen, dass die Fotos tatsächlich Kindesmissbrauch enthalten, all dies bedeutet, dass der Angriff, der in der Theorie als wahr angenommen wird, in der Praxis jedoch schwierig ist.


Apple antwortete

Apple sagte in einer Erklärung, dass der in iOS 14.3 entdeckte NeuralHash-Code nicht die endgültige Version ist seine Vollversion nach dem Erscheinen des Systems Neuer Start iOS 15.

Was haltet ihr von Apples neuer Kindersicherheitsfunktion und gibt es die Befürchtung, dass sie missbraucht werden könnte, sagt es uns in den Kommentaren

Quelle:

Schraubstock

Verwandte Artikel