Um den sexuellen Missbrauch von Kindern zu bekämpfen, beabsichtigt Apple, ein Programm auf US-iPhones zu installieren, um nach illegalen Bildern zu suchen, die insbesondere Kindesmissbrauch oder Ausbeutung beinhalten Dies könnte Benutzern auf der ganzen Welt die Tür zur Überwachung von Millionen von Geräten öffnen.

Apple plant, US-iPhones nach Bildern von Kindesmissbrauch zu scannen


Apples neues System

قامت شركة أبل بتفصيل نظامها المقترح والذي أطلقت عليه اسم نيورال ماتش ” neuralMatch” لبعض الأكاديميين الأمريكيين في وقت سابق من هذا الأسبوع، ووفقًا لاثنين من الباحثين الأمنيين الذين تم اطلاعهم على الاجتماع الافتراضي، من المتوقع أن يتم تنفيذ برنامج أبل على نطاق أوسع في أقرب وقت Diese Woche.

NeuralMatch ist ein automatisiertes System, das proaktiv ein Team menschlicher Prüfer benachrichtigt, wenn sie der Meinung sind, dass illegale Bilder entdeckt wurden. Anschließend wenden sich die Prüfer an die Strafverfolgungsbehörden und melden den Besitzer des Geräts.


Apple und Strafverfolgungsbehörden

Die Spannungen zwischen Technologieunternehmen wie Apple und Facebook, die sich für den verstärkten Einsatz von Verschlüsselung in ihren Produkten und Dienstleistungen ausgesprochen haben, und den Strafverfolgungsbehörden haben geschwelt, seit Apple sich 2016 geweigert hat, dem FBI beim Zugriff auf das iPhone eines Verdächtigen in einem Amoklauf in San Bernardino, Kalifornien.

Um alle Parteien zufrieden zu stellen, egal ob Benutzer oder Behörden, hat Apple sein neues Neural Match-System angekündigt, das einen Kompromiss zwischen seinem Versprechen, die Privatsphäre der Kunden zu schützen, und den anhaltenden Forderungen von Regierungen und Strafverfolgungsbehörden nach mehr Unterstützung bei strafrechtlichen Ermittlungen, einschließlich Terrorismus, darstellt und Kinderpornografie.


Wie funktioniert Neuronales Match?

Der NeuralMatch-Algorithmus scannt kontinuierlich Fotos, die auf dem iPhone eines amerikanischen Benutzers gespeichert und in das iCloud-Backup-System hochgeladen wurden.Bekannte Bilder von sexuellem Missbrauch von Kindern.

Apple trainierte das System anhand von etwa 200000 Bildern von sexuellen Übergriffen, die vom US-amerikanischen gemeinnützigen National Center for Missing and Exploited Children gesammelt wurden.

Nach Angaben von Personen, die über die Pläne informiert wurden, erhält jedes in den USA in iCloud hochgeladene Foto einen "Sicherheitsgutschein", der sagt, ob es verdächtig ist oder nicht, und sobald eine bestimmte Anzahl von Fotos als verdächtig markiert wird, wird es aktiviert Apple soll alle Fotos entschlüsseln. Verdächtige und wenn sie illegal sind, werden sie sofort den Behörden gemeldet.


Apple und Datenschutz

Apple glaubt möglicherweise, dass Datenschutz das Recht jedes Benutzers ist, und trotz seiner guten Absichten in Bezug auf Ausbeutung und Missbrauch von Kindern befürchten viele Sicherheitsexperten, dass Apple möglicherweise Regierungen auf der ganzen Welt den Zugriff auf die personenbezogenen Daten ihrer Bürger ermöglicht, was möglicherweise über sein Ziel hinausgehen, das Original.

"Es ist eine absolut schreckliche Idee, weil sie zu einer Massenüberwachung führen würde, weil Apples System manipuliert werden könnte, um nach anderen gezielten Bildern und Texten zu suchen, und vor allem würde Apples Idee den Druck auf andere Technologieunternehmen erhöhen, ähnliche Technologien zu verwenden." sagt Ross Anderson, Professor für Sicherheitstechnik an der University of Cambridge.

Alec Moffitt, ein Sicherheitsforscher und Datenschutzaktivist, der zuvor bei Facebook und Deliveroo gearbeitet hat, sagte, Apples Schritt sei „völlig unerwartet und ein erheblicher Rückschritt in Bezug auf die Privatsphäre“ gewesen.

Matthew Green, ein Sicherheitsprofessor an der Johns Hopkins University, von dem angenommen wird, dass er der erste Forscher ist, der zu diesem Thema twittert, glaubt auch, dass das, was Apple getan hat, den Damm durchbrechen wird, weil die Regierungen andere Unternehmen unter Druck setzen werden, dasselbe zu tun.

Alan Woodward, Professor für Computersicherheit an der University of Surrey, sagte: „Das Apple-System ist weniger invasiv, da der Scan am Telefon durchgeführt wird und die Behörden benachrichtigt werden, wenn eine Übereinstimmung vorliegt, und dieser dezentrale Ansatz ist der beste.“ Art und Weise, die Sie übernehmen können, um die Privatsphäre zu wahren.“

Halten Sie das, was Apple getan hat, aus Ihrer Sicht für richtig oder verstößt es gegen die Privatsphäre, sagen Sie es uns in den Kommentaren

Quelle:

Financial Times

Verwandte Artikel