Apple heeft de afgelopen dagen met veel kritiek in de schijnwerpers gestaan ​​vanwege Functie voor het scannen van afbeeldingen Met zijn apparaten, die het heeft gelanceerd om kinderen te beschermen en misbruik of uitbuiting te voorkomen, of wat bekend staat als CSAM-afbeeldingen, hebben veel privacyorganisaties en zelfs experts hun bezorgdheid geuit over de transformatie van deze functie in een maas in de wet die hackers of zelfs overheden kunnen uitbuiten om de privacy van iPhone-gebruikers te schenden en om eventuele verwarring weg te nemen of dingen op de juiste manier te verduidelijken en uit te leggen.Apple heeft een bestand gelanceerd in de vorm van veelgestelde vragen waarin alles wordt uitgelegd over de nieuwe functie en wat er achter de schermen gebeurt, en laten we alles leren over de kinderveiligheidsfunctie en of deze de privacy van gebruikers echt bedreigt of niet.

Apple reageert op beschuldigingen van schending van privacy in de functie tegen uitbuiting van kinderen


Wat is het verschil tussen Berichtbeveiliging en CSAM in iCloud-foto's?

Deze twee functies zijn verschillend en gebruiken niet dezelfde technologie als Communicatiebeveiliging in Berichten is ontworpen om ouders en kinderen extra hulpmiddelen te bieden om hun kinderen te beschermen tegen het verzenden en ontvangen van seksueel expliciete afbeeldingen in de Berichten-app. Het werkt alleen op de foto's die zijn verzonden of ontvangen in de Berichten-app voor kinderaccounts die zijn ingesteld met 'Delen met gezin' en analyseert vervolgens de foto's op het apparaat en brengt dus de privacy van de berichten niet in gevaar. Behulpzaam en stel hem gerust dat het goed is als hij dat niet doet de foto niet willen bekijken of opsturen en als extra voorzorgsmaatregel kunnen jonge kinderen ook te horen krijgen dat hun ouders voor hun eigen veiligheid een bericht krijgen als ze de foto zien.

De tweede functie, CSAM Photo Scan in iCloud, is ontworpen om CSAM buiten iCloud-foto's te houden zonder Apple informatie te verstrekken over andere foto's dan de foto's die overeenkomen met bekende CSAM-foto's. Het bezit van CSAM-afbeeldingen is illegaal in de meeste landen, waaronder de Verenigde Staten. Deze functie is ook alleen van invloed op gebruikers die ervoor hebben gekozen om iCloud-foto's te gebruiken om hun foto's op te slaan en niet op gebruikers die ervoor hebben gekozen om iCloud-foto's niet te gebruiken. Er is geen effect op andere gegevens op het apparaat en deze functie is niet van toepassing op berichten.


Wie kan verbindingsbeveiliging in berichten gebruiken?

Communicatiebeveiliging in Berichten is alleen beschikbaar voor accounts die als gezin zijn ingesteld in iCloud. Ouders of voogden moeten ervoor kiezen om de functie voor het gezin in te schakelen en oudermeldingen kunnen alleen worden ingeschakeld door ouders of voogden voor accounts van kinderen van 12 jaar of jonger.


Betekent dit dat de berichten worden gedeeld met Apple of wetshandhavingsinstanties?

Natuurlijk niet, Apple zal nooit toegang hebben tot de informatie in Berichten als gevolg van deze functie in Berichten. Deze functie deelt geen informatie met Apple, NCMEC of wetshandhavingsinstanties. De communicatiebeveiligingsfunctie in Berichten staat los van de CSAM-functie voor het scannen van iCloud-foto's.


Breekt dit de end-to-end-codering in de Berichten-app?

Nee. Dit leidt niet tot een privacyschending voor berichten en Apple zal als gevolg van deze functie nooit toegang kunnen krijgen tot uw contacten. Elke gebruiker van de Berichten-app, inclusief degenen die contactbeveiliging hebben ingeschakeld, heeft volledige controle over wat er wordt verzonden en naar wie.

 Als de functie is ingeschakeld voor het account van een kind, evalueert het apparaat afbeeldingen in berichten en biedt het een interventie als een afbeelding als ongepast wordt geïdentificeerd.Het is ongepast en Apple heeft geen toegang tot berichten, interfereert met meldingen of beoordeelt foto's.


Voorkomt deze functie dat misbruikte kinderen hulp zoeken?

De verbindingsbeveiligingsfunctie is alleen van toepassing op seksueel expliciete afbeeldingen die worden gedeeld of ontvangen in berichten en heeft niets te maken met andere apps die slachtoffers kunnen gebruiken om hulp te zoeken, inclusief sms-berichten.Instructies voor het zoeken van hulp.


Zullen de ouders worden verwittigd zonder de kinderen te waarschuwen en hen een keuze te geven?

Nee. o nee; Ouder- of voogdaccounts moeten zich aanmelden om communicatiebeveiliging in berichten mogelijk te maken. Ouderlijke meldingen zijn ingeschakeld voor accounts van kinderen van 12 jaar of jonger, maar voordat een obscene of ongepaste afbeelding wordt verzonden of ontvangen, wordt het kind gewaarschuwd dat als ze doorgaan om de afbeelding te bekijken of te verzenden, wordt een melding naar de ouders gestuurd en als het kind na deze waarschuwing een afbeelding blijft verzenden of bekijken, worden de ouders op de hoogte gebracht. Voor accounts van kinderen van 13-17 jaar wordt het kind nog steeds gewaarschuwd en gevraagd of ze willen een seksuele foto bekijken of delen, maar de ouders worden niet op de hoogte gebracht.


Betekent dit dat Apple alle foto's die op mijn apparaat zijn opgeslagen, controleert?

Deze functie is alleen van toepassing op de foto's die de gebruiker naar iCloud uploadt.De functie werkt niet voor gebruikers die iCloud-foto's hebben uitgeschakeld, en ook niet voor de fotobibliotheek op uw iPhone.


Worden CSAM-afbeeldingen naar mijn apparaat gedownload om overeen te komen met mijn afbeeldingen?

Nee, CSAM-afbeeldingen worden niet opgeslagen op of verzonden naar het apparaat. In plaats van echte afbeeldingen gebruikt Apple onleesbare hashes die op het apparaat zijn opgeslagen. Deze hashes zijn reeksen getallen die bekende CSAM-afbeeldingen vertegenwoordigen, maar die niet opnieuw kunnen worden gelezen of geconverteerd naar irrelevante afbeeldingen. Deze set afbeeldingshashes is gebaseerd op afbeeldingen die zijn verkregen en gevalideerd als CSAM door organisaties voor kinderveiligheid. Met nieuwe coderingsprogramma's kan Apple deze hashes gebruiken om alleen iCloud-accounts te identificeren die fotoreeksen opslaan die overeenkomen met bekende CSAM-foto's en dan alleen ongepaste kinderfoto's kunnen identificeren en geen andere foto's herkennen of zien.


waarom nu?

Een van de grote uitdagingen van Apple is het helpen beschermen van kinderen met behoud van de privacy van gebruikers. Met de nieuwe functie detecteert Apple CSAM-foto's die zijn opgeslagen in iCloud en leert het bedrijf niets over andere gegevens die op uw apparaat zijn opgeslagen.

Bestaande technologieën waarop andere bedrijven vertrouwen, scannen alle gebruikersafbeeldingen die in de cloud zijn opgeslagen. Dit creëert privacyrisico's voor gebruikers, maar het is anders met de fotoscanfunctie van Apple, zoals het niet kunnen herkennen van foto's tenzij ze beide overeenkomen met bekende CSAM-foto's en zijn opgenomen in een iCloud-account dat veel canonieke CSAM-foto's bevat.


Kan het CSAM-beelddetectiesysteem van iCloud worden gebruikt om andere dingen te detecteren?

Apple zei dat het procesontwerp om dit te voorkomen. CSAM-beelddetectie is ontworpen voor iCloud-afbeeldingen, zodat het systeem alleen werkt met CSAM-afbeeldingshashes die worden geleverd door NCMEC en andere kinderveiligheidsorganisaties.

Deze set afbeeldingshashes is gebaseerd op afbeeldingen die zijn verkregen en gevalideerd als CSAM door organisaties voor kinderveiligheid. Er is geen geautomatiseerde rapportage aan wetshandhavers en Apple voert een menselijke beoordeling uit voordat het zijn rapport indient bij het National Center for Missing and Exploited Children (NCMEC).

Als gevolg hiervan is het systeem alleen ontworpen om foto's te rapporteren die bekend staan ​​als CSAM in iCloud-foto's. In de meeste landen, waaronder de Verenigde Staten, is het bezit van deze afbeeldingen een misdrijf en is Apple verplicht om gevallen waarvan wij kennis krijgen te melden aan de bevoegde autoriteiten.


Kunnen overheden Apple dwingen om niet-CSAM-afbeeldingen toe te voegen aan een hashlijstbestand?

Apple zal dergelijke verzoeken weigeren. De CSAM-detectiefunctie is ontworpen om alleen bekende CSAM-foto's te detecteren die zijn opgeslagen in iCloud-foto's en die zijn geïdentificeerd door experts van NCMEC en andere kinderveiligheidsgroepen.

We hebben eerder te maken gehad met eisen om door de overheid opgelegde wijzigingen op te zetten en te publiceren die de privacy van gebruikers ondermijnen, en we hebben deze eisen standvastig afgewezen. We zullen het in de toekomst blijven weigeren. Voor alle duidelijkheid: deze technologie is beperkt tot het detecteren van CSAM die is opgeslagen in iCloud en we zullen geen overheidsverzoeken goedkeuren waarbij mogelijk andere bestanden betrokken zijn.

Bovendien voert Apple een menselijke beoordeling uit voordat het een rapport indient bij NCMEC. Als het systeem afbeeldingen markeert die niet overeenkomen met bekende CSAM-afbeeldingen, wordt het account niet uitgeschakeld en wordt er geen rapport ingediend bij NCMEC.


Kan CSAM worden aangepast om andere dingen of specifieke mensen te targeten?

Ons proces is ontworpen om dit te voorkomen. De afbeeldingshashes die worden gebruikt voor het matchen zijn van bekende en bestaande CSAM-afbeeldingen die zijn verkregen en gevalideerd door kinderveiligheidsorganisaties en dezelfde hash wordt opgeslagen in het besturingssysteem van elke iPhone- en iPad-gebruiker, dus gerichte aanvallen zijn alleen gericht tegen specifieke personen Niet mogelijk gemaakt door ons ontwerp en er is geen geautomatiseerde rapportage aan wetshandhavers, Apple voert een menselijke beoordeling uit voordat het zijn rapport indient, en in het geval dat het systeem waarschijnlijk geen afbeeldingen markeert die niet overeenkomen met bekende CSAM-afbeeldingen, wordt het account niet uitgeschakeld en wordt er geen melding gemaakt zal worden ingediend.


Kunnen onschuldige mensen de fout in gaan vanwege de functie?

Nee, het systeem is ontworpen om uiterst nauwkeurig te zijn en de kans dat het systeem een ​​bepaald account onjuist markeert, is minder dan één op elke biljoen accounts per jaar. Bovendien voert Apple elke keer dat een account door het systeem wordt gemarkeerd een menselijke beoordeling uit vóór Dien zijn rapport in bij NCMEC en als gevolg daarvan zullen systeemfouten of aanvallen niet resulteren in het rapporteren van onschuldigen.

Wat vind je van de nieuwe functie van Apple om ongepaste afbeeldingen voor kinderen te detecteren, vertel het ons in de reacties

Bron:

appel

Gerelateerde artikelen