In Apples Anti-Kind-Missbrauchs-Technologie wurde ein Fehler entdeckt, und Apple antwortet

Apple wird voraussichtlich seine Funktion einführen Neue Kindersicherheit CSAM Später in diesem Jahr, speziell mit der Einführung von iOS 15, sagte jedoch einer der Entwickler, dass er den Algorithmus, durch den die Funktion in älteren Versionen des iPhone-Betriebssystems funktioniert, gefunden und einen Fehler und einen technischen Fehler in dieser Technologie entdeckt hat. Was ist dieser Defekt und wie hat Apple darauf reagiert?

In Apples Anti-Kind-Missbrauchs-Technologie wurde ein Fehler entdeckt, und Apple antwortet


CSAM-Bildanalyse- und Scanfunktion

Ein Reddit-Benutzer sagt, er habe eine Version des NeuralHash-Algorithmus entdeckt, der verwendet wird, um CSAM-Bilder in iOS 14.3 zu erkennen.

Apples Antwort war: Die extrahierte Version ist nicht aktuell und wird nicht verwendet.

Der als AsuharietYgvar bekannte Entwickler konnte NerualHash-Code finden, der in iOS 14.3 vergraben ist, und sagte, dass er den Code zurückentwickelt und ein Arbeitsmodell in Python rekonstruiert hat, das durch Übergabe von Bildern dieser Codes getestet werden kann.

Der Entwickler behauptet, dass dieser Algorithmus nicht durch Bildkomprimierung oder Größenänderung getäuscht wird, aber er kann den Prozess des Zuschneidens oder Drehens des Bildes nicht erkennen. Unter Verwendung der Sprache Python begannen die Benutzer der GitHub-Plattform zu untersuchen, wie der Algorithmus funktioniert und ob er missbraucht und auf eine Weise ausgenutzt werden kann, die iPhone-Besitzer bedroht , also könnte ein Hacker theoretisch diese sehr natürlich aussehenden Fotos als Hintergrundbild Ihres Geräts oder als normale Landschaft an Apple-Benutzer senden, um zu versuchen, den Algorithmus auszuführen und sie abzufangen und ihnen Probleme zu bereiten.


Nicht die endgültige Version

Trotz dieser Mängel kann gesagt werden, dass der entdeckte Algorithmus nicht die endgültige Version ist, da Apple den CSAM-Bilderkennungsalgorithmus seit Jahren entwickelt, sodass es einige Versionen des Codes zum Testen geben soll.

Die Möglichkeit, gefälschte Fotos zu erstellen und sie an iPhone-Benutzer zu senden, um sie zu fangen, ist nicht so einfach, da Apple die Fotos nicht preisgibt, es sei denn, sie werden mit der Cloud synchronisiert und vergessen nicht die menschliche Überprüfung, um sicherzustellen, dass die Fotos tatsächlich Kindesmissbrauch enthalten, all dies bedeutet, dass der Angriff, der in der Theorie als wahr angenommen wird, in der Praxis jedoch schwierig ist.


Apple antwortete

Apple sagte in einer Erklärung, dass der in iOS 14.3 entdeckte NeuralHash-Code nicht die endgültige Version ist seine Vollversion nach dem Erscheinen des Systems Neuer Start iOS 15.

Was haltet ihr von Apples neuer Kindersicherheitsfunktion und gibt es die Befürchtung, dass sie missbraucht werden könnte, sagt es uns in den Kommentaren

Quelle:

Schraubstock

4 Bewertungen

Kommentare Benutzer
Mohammed Al-Zahrani

Sie verhaften mich, weil ich Kinder gegessen habe, weil mein Handy voller Videos ist und ich mit meinen Kindern spiele, als würde ich sie essen hahahaha

Kommentare Benutzer
Mohammed

Apple hat immer noch nichts über die Benachrichtigung und Entschädigung von Benutzern gesagt, deren Fotos einer menschlichen Überprüfung unterzogen wurden und sich als unschuldig erwiesen haben.

Wird Apple sie für die Verletzung ihrer Privatsphäre entschädigen, indem sie Apple-Mitarbeitern ihre privaten Fotos zeigt?

5
1
Kommentare Benutzer
Mahmud Hassan

Natürlich wird es verwendet, um nach anderen Dingen und ohne unser Wissen zu suchen, und Länder können es verwenden, um nach allem anderen zu suchen.
Apple ist kein Engel, und am Ende ist es ein ausbeuterisches Unternehmen, das nur daran interessiert ist, Geld zu beschaffen

6
1
Kommentare Benutzer
Sagte Abdel Aleem

Vielen Dank für die Mühe und die Vorteile

1
2

Hinterlasse eine Antwort