In den letzten Tagen stand Apple mit viel Kritik im Rampenlicht wegen Bildprüffunktion Mit seinen Geräten, die es auf den Markt gebracht hat, um Kinder zu schützen und Missbrauch oder Ausbeutung von ihnen zu verhindern, oder den sogenannten CSAM-Bildern, haben viele Datenschutzorganisationen und sogar Experten Bedenken geäußert, diese Funktion in eine Lücke zu verwandeln, die Hacker oder sogar Regierungen ausnutzen können um die Privatsphäre von iPhone-Nutzern zu verletzen, und um jede Verwirrung zu beseitigen oder Dinge richtig zu klären und zu erklären. Apple hat eine Datei in Form von FAQs veröffentlicht, die alles über seine neue Funktion und das, was hinter den Kulissen passiert, erklärt und lasst uns alles lernen über die Kindersicherheitsfunktion und ob sie die Privatsphäre der Benutzer wirklich gefährdet oder nicht.

Apple reagiert auf Vorwürfe der Verletzung der Privatsphäre in der Funktion gegen die Ausbeutung von Kindern


Was ist der Unterschied zwischen Nachrichtenschutz und CSAM in iCloud-Fotos?

Diese beiden Funktionen sind unterschiedlich und verwenden nicht dieselbe Technologie, da Kommunikationssicherheit in Nachrichten entwickelt wurde, um Eltern und Kindern zusätzliche Tools an die Hand zu geben, um ihre Kinder vor dem Senden und Empfangen sexuell eindeutiger Bilder in der Nachrichten-App zu schützen. Es funktioniert nur mit den gesendeten oder empfangenen Fotos in der Nachrichten-App für Kinderkonten, die mit der Familienfreigabe eingerichtet wurden, und analysiert dann die Fotos auf dem Gerät und gibt somit die Privatsphäre der Nachrichten nicht preis. Hilfreich und beruhigend, dass es in Ordnung ist, wenn er es tut. Sie möchten das Bild nicht ansehen oder senden und als zusätzliche Vorsichtsmaßnahme können kleine Kinder auch darauf hingewiesen werden, dass ihre Eltern zu ihrer eigenen Sicherheit eine Nachricht erhalten, wenn sie es sehen.

Die zweite Funktion, CSAM Photo Scan in iCloud, wurde entwickelt, um CSAM aus iCloud-Fotos herauszuhalten, ohne Apple Informationen über andere Fotos als die, die mit bekannten CSAM-Fotos übereinstimmen, bereitzustellen. Der Besitz von CSAM-Bildern ist in den meisten Ländern, einschließlich der Vereinigten Staaten, illegal. Außerdem betrifft diese Funktion nur Benutzer, die sich dafür entschieden haben, iCloud-Fotos zum Speichern ihrer Fotos zu verwenden, und sie betrifft nicht Benutzer, die sich nicht für die Verwendung von iCloud-Fotos entschieden haben. Es hat keine Auswirkungen auf andere Daten auf dem Gerät und diese Funktion gilt nicht für Nachrichten.


Wer kann die Verbindungssicherheit in Nachrichten verwenden?

Die Kommunikationssicherheit in Nachrichten ist nur für Konten verfügbar, die als Familien in iCloud eingerichtet wurden. Eltern oder Erziehungsberechtigte müssen die Funktion für die Familie aktivieren, und Elternbenachrichtigungen können nur von Eltern oder Erziehungsberechtigten für Konten von Kindern unter 12 Jahren aktiviert werden.


Bedeutet dies, dass die Nachrichten an Apple oder Strafverfolgungsbehörden weitergegeben werden?

Natürlich nicht, Apple wird aufgrund dieser Funktion in Nachrichten niemals auf die Informationen in Nachrichten zugreifen können. Diese Funktion gibt keine Informationen an Apple, NCMEC oder Strafverfolgungsbehörden weiter. Die Kommunikationssicherheitsfunktion in Nachrichten ist von der CSAM-Funktion für das Scannen von iCloud-Fotos getrennt.


Unterbricht dies die Ende-zu-Ende-Verschlüsselung in der Nachrichten-App?

Nein. Dies führt nicht zu einer Datenschutzverletzung für Nachrichten und Apple wird aufgrund dieser Funktion niemals auf Ihre Kontakte zugreifen können. Jeder Benutzer der Nachrichten-App, einschließlich derjenigen, die die Kontaktsicherheit aktiviert haben, hat die vollständige Kontrolle darüber, was an wen gesendet wird.

 Wenn die Funktion für das Konto eines Kindes aktiviert ist, wertet das Gerät Bilder in Nachrichten aus und bietet eine Intervention, wenn ein Bild als unangemessen erkannt wird.Es ist unangemessen und Apple kann nicht auf Nachrichten zugreifen, Benachrichtigungen stören oder Fotos bewerten.


Verhindert diese Funktion, dass missbrauchte Kinder Hilfe suchen?

Die Verbindungssicherheitsfunktion gilt nur für sexuell eindeutige Bilder, die in Nachrichten geteilt oder empfangen werden, und hat nichts mit anderen Apps zu tun, die Opfer verwenden können, um Hilfe zu suchen, einschließlich Textnachrichten.


Werden die Eltern benachrichtigt, ohne die Kinder zu warnen und ihnen eine Wahl zu geben?

Nein. Oh nein; Eltern- oder Erziehungsberechtigte-Konten müssen sich registrieren, um die Kommunikationssicherheit in Nachrichten zu aktivieren. Elternbenachrichtigungen sind für Konten von Kindern im Alter von 12 Jahren oder jünger aktiviert, aber zuvor werden obszöne oder unangemessene Bilder gesendet oder empfangen, das Kind wird gewarnt, wenn sie fortfahren um das Bild anzuzeigen oder zu senden, wird eine Benachrichtigung an die Eltern gesendet und wenn das Kind nach dieser Warnung weiterhin ein Bild sendet oder anzeigt, werden die Eltern benachrichtigt. Bei Konten von Kindern im Alter von 13 bis 17 Jahren wird das Kind dennoch gewarnt und gefragt, ob sie möchten ein sexuelles Foto ansehen oder teilen, aber die Eltern werden nicht benachrichtigt.


Bedeutet dies, dass Apple alle auf meinem Gerät gespeicherten Fotos überprüft?

Diese Funktion gilt nur für Fotos, die der Benutzer zum Hochladen in iCloud auswählt. Die Funktion funktioniert nicht bei Benutzern, bei denen iCloud-Fotos deaktiviert sind, und funktioniert auch nicht in der Fotobibliothek auf Ihrem iPhone.


Werden CSAM-Bilder auf mein Gerät heruntergeladen, damit sie mit meinen Bildern übereinstimmen?

Nein, CSAM-Bilder werden nicht auf dem Gerät gespeichert oder an dieses gesendet. Anstelle von tatsächlichen Bildern verwendet Apple nicht lesbare Hashes, die auf dem Gerät gespeichert werden. Diese Hashes sind Zahlenfolgen, die bekannte CSAM-Bilder darstellen, aber nicht erneut gelesen oder in irrelevante Bilder umgewandelt werden können. Dieser Satz von Bild-Hashes basiert auf Bildern, die von Kindersicherheitsorganisationen als CSAM erhalten und validiert wurden. Mit neuen Verschlüsselungsanwendungen kann Apple diese Hashes verwenden, um nur iCloud-Konten zu identifizieren, die Stapel von Fotos speichern, die mit bekannten CSAM-Fotos übereinstimmen, und dann nur unangemessene Kinderfotos identifizieren können, ohne andere Fotos zu erkennen oder zu sehen.


warum jetzt?

Eine der großen Herausforderungen von Apple besteht darin, Kinder zu schützen und gleichzeitig die Privatsphäre der Benutzer zu wahren. Mit der neuen Funktion erkennt Apple CSAM-Fotos, die in iCloud gespeichert sind, und das Unternehmen erfährt nichts über andere auf Ihrem Gerät gespeicherte Daten.

Vorhandene Technologien, auf die sich andere Unternehmen verlassen, scannen alle in der Cloud gespeicherten Benutzerbilder. Dies birgt Datenschutzrisiken für Benutzer, aber bei Apples Foto-Scan-Funktion ist es anders, z. B. können Fotos nicht erkannt werden, es sei denn, sie stimmen mit bekannten CSAM-Fotos überein und sind in einem iCloud-Konto enthalten, das viele kanonische CSAM-Fotos enthält.


Kann das CSAM-Bilderkennungssystem von iCloud verwendet werden, um andere Dinge zu erkennen?

Apple sagte, dass das Design des Prozesses dies verhindern soll. Die CSAM-Bilderkennung wurde für iCloud-Bilder entwickelt, sodass das System nur mit CSAM-Bild-Hashes funktioniert, die von NCMEC und anderen Kinderschutzorganisationen bereitgestellt werden.

Dieser Satz von Bild-Hashes basiert auf Bildern, die von Kindersicherheitsorganisationen als CSAM erhalten und validiert wurden. Es gibt keine automatische Meldung an die Strafverfolgungsbehörden, und Apple führt eine menschliche Überprüfung durch, bevor es seine Meldung an das National Center for Missing and Exploited Children (NCMEC) übermittelt.

Daher ist das System nur dafür ausgelegt, Fotos zu melden, die in iCloud-Fotos als CSAM bekannt sind. In den meisten Ländern, einschließlich der Vereinigten Staaten, ist der Besitz dieser Bilder eine Straftat und Apple ist verpflichtet, alle uns bekannt gewordenen Fälle den zuständigen Behörden zu melden.


Können Regierungen Apple zwingen, Nicht-CSAM-Images zu einer Hash-Listendatei hinzuzufügen?

Apple wird solche Forderungen ablehnen. Die CSAM-Erkennungsfunktion wurde entwickelt, um nur bekannte CSAM-Fotos zu erkennen, die in iCloud-Fotos gespeichert sind und von Experten von NCMEC und anderen Kindersicherheitsgruppen identifiziert wurden.

Wir haben uns schon früher Forderungen gestellt, von der Regierung auferlegte Änderungen zu erstellen und zu veröffentlichen, die die Privatsphäre der Benutzer untergraben, und wir haben diese Forderungen entschieden zurückgewiesen. Wir werden es auch in Zukunft ablehnen. Um es klarzustellen, diese Technologie ist darauf beschränkt, in iCloud gespeicherte CSAM zu erkennen, und wir werden keine behördlichen Anfragen genehmigen, die andere Dateien beinhalten könnten.

Darüber hinaus führt Apple eine menschliche Überprüfung durch, bevor ein Bericht an NCMEC übermittelt wird. Wenn das System Bilder markiert, die nicht mit bekannten CSAM-Bildern übereinstimmen, wird das Konto nicht deaktiviert und kein Bericht an NCMEC gesendet.


Kann CSAM angepasst werden, um andere Dinge oder bestimmte Personen anzusprechen?

Unser Verfahren ist darauf ausgelegt, dies zu verhindern. Die für den Abgleich verwendeten Bild-Hashes stammen von bekannten und vorhandenen CSAM-Bildern, die von Kinderschutzorganisationen erhalten und validiert wurden, und der gleiche Hash wird im Betriebssystem jedes iPhone- und iPad-Benutzers gespeichert, sodass gezielte Angriffe nur gegen bestimmte Personen erfolgen Nicht durch unser Design aktiviert und es keine automatische Meldung an die Strafverfolgungsbehörden gibt, führt Apple eine menschliche Überprüfung durch, bevor die Meldung übermittelt wird, und falls das System wahrscheinlich keine Bilder markiert, die nicht mit bekannten CSAM-Bildern übereinstimmen, wird das Konto nicht deaktiviert und es erfolgt keine Meldung wird abgelegt.


Können unschuldige Leute wegen der Funktion etwas falsch machen?

Nein, das System ist so konzipiert, dass es extrem genau ist und die Wahrscheinlichkeit, dass das System einen bestimmten Account fälschlicherweise markiert, liegt bei weniger als einer von einer Billion Accounts pro Jahr.Außerdem führt Apple jedes Mal, wenn ein Account vom System gemeldet wird, eine menschliche Überprüfung durch. bevor Sie seinen Bericht an NCMEC senden und Systemfehler oder Angriffe nicht zur Anzeige des Unschuldigen führen.

Was haltet ihr von Apples neuer Funktion, um unangemessene Bilder für Kinder zu erkennen, sagt uns in den Kommentaren

Quelle:

Apfel

Verwandte Artikel