Apple heeft de afgelopen dagen met veel kritiek in de schijnwerpers gestaan vanwege Functie voor het scannen van afbeeldingen Met zijn apparaten, die het heeft gelanceerd om kinderen te beschermen en misbruik of uitbuiting te voorkomen, of wat bekend staat als CSAM-afbeeldingen, hebben veel privacyorganisaties en zelfs experts hun bezorgdheid geuit over de transformatie van deze functie in een maas in de wet die hackers of zelfs overheden kunnen uitbuiten om de privacy van iPhone-gebruikers te schenden en om eventuele verwarring weg te nemen of dingen op de juiste manier te verduidelijken en uit te leggen.Apple heeft een bestand gelanceerd in de vorm van veelgestelde vragen waarin alles wordt uitgelegd over de nieuwe functie en wat er achter de schermen gebeurt, en laten we alles leren over de kinderveiligheidsfunctie en of deze de privacy van gebruikers echt bedreigt of niet.
Wat is het verschil tussen Berichtbeveiliging en CSAM in iCloud-foto's?
Deze twee functies zijn verschillend en gebruiken niet dezelfde technologie als Communicatiebeveiliging in Berichten is ontworpen om ouders en kinderen extra hulpmiddelen te bieden om hun kinderen te beschermen tegen het verzenden en ontvangen van seksueel expliciete afbeeldingen in de Berichten-app. Het werkt alleen op de foto's die zijn verzonden of ontvangen in de Berichten-app voor kinderaccounts die zijn ingesteld met 'Delen met gezin' en analyseert vervolgens de foto's op het apparaat en brengt dus de privacy van de berichten niet in gevaar. Behulpzaam en stel hem gerust dat het goed is als hij dat niet doet de foto niet willen bekijken of opsturen en als extra voorzorgsmaatregel kunnen jonge kinderen ook te horen krijgen dat hun ouders voor hun eigen veiligheid een bericht krijgen als ze de foto zien.
De tweede functie, CSAM Photo Scan in iCloud, is ontworpen om CSAM buiten iCloud-foto's te houden zonder Apple informatie te verstrekken over andere foto's dan de foto's die overeenkomen met bekende CSAM-foto's. Het bezit van CSAM-afbeeldingen is illegaal in de meeste landen, waaronder de Verenigde Staten. Deze functie is ook alleen van invloed op gebruikers die ervoor hebben gekozen om iCloud-foto's te gebruiken om hun foto's op te slaan en niet op gebruikers die ervoor hebben gekozen om iCloud-foto's niet te gebruiken. Er is geen effect op andere gegevens op het apparaat en deze functie is niet van toepassing op berichten.
Wie kan verbindingsbeveiliging in berichten gebruiken?
Communicatiebeveiliging in Berichten is alleen beschikbaar voor accounts die als gezin zijn ingesteld in iCloud. Ouders of voogden moeten ervoor kiezen om de functie voor het gezin in te schakelen en oudermeldingen kunnen alleen worden ingeschakeld door ouders of voogden voor accounts van kinderen van 12 jaar of jonger.
Betekent dit dat de berichten worden gedeeld met Apple of wetshandhavingsinstanties?
Natuurlijk niet, Apple zal nooit toegang hebben tot de informatie in Berichten als gevolg van deze functie in Berichten. Deze functie deelt geen informatie met Apple, NCMEC of wetshandhavingsinstanties. De communicatiebeveiligingsfunctie in Berichten staat los van de CSAM-functie voor het scannen van iCloud-foto's.
Breekt dit de end-to-end-codering in de Berichten-app?
Nee. Dit leidt niet tot een privacyschending voor berichten en Apple zal als gevolg van deze functie nooit toegang kunnen krijgen tot uw contacten. Elke gebruiker van de Berichten-app, inclusief degenen die contactbeveiliging hebben ingeschakeld, heeft volledige controle over wat er wordt verzonden en naar wie.
Als de functie is ingeschakeld voor het account van een kind, evalueert het apparaat afbeeldingen in berichten en biedt het een interventie als een afbeelding als ongepast wordt geïdentificeerd.Het is ongepast en Apple heeft geen toegang tot berichten, interfereert met meldingen of beoordeelt foto's.
Voorkomt deze functie dat misbruikte kinderen hulp zoeken?
De verbindingsbeveiligingsfunctie is alleen van toepassing op seksueel expliciete afbeeldingen die worden gedeeld of ontvangen in berichten en heeft niets te maken met andere apps die slachtoffers kunnen gebruiken om hulp te zoeken, inclusief sms-berichten.Instructies voor het zoeken van hulp.
Zullen de ouders worden verwittigd zonder de kinderen te waarschuwen en hen een keuze te geven?
Nee. o nee; Ouder- of voogdaccounts moeten zich aanmelden om communicatiebeveiliging in berichten mogelijk te maken. Ouderlijke meldingen zijn ingeschakeld voor accounts van kinderen van 12 jaar of jonger, maar voordat een obscene of ongepaste afbeelding wordt verzonden of ontvangen, wordt het kind gewaarschuwd dat als ze doorgaan om de afbeelding te bekijken of te verzenden, wordt een melding naar de ouders gestuurd en als het kind na deze waarschuwing een afbeelding blijft verzenden of bekijken, worden de ouders op de hoogte gebracht. Voor accounts van kinderen van 13-17 jaar wordt het kind nog steeds gewaarschuwd en gevraagd of ze willen een seksuele foto bekijken of delen, maar de ouders worden niet op de hoogte gebracht.
Betekent dit dat Apple alle foto's die op mijn apparaat zijn opgeslagen, controleert?
Deze functie is alleen van toepassing op de foto's die de gebruiker naar iCloud uploadt.De functie werkt niet voor gebruikers die iCloud-foto's hebben uitgeschakeld, en ook niet voor de fotobibliotheek op uw iPhone.
Worden CSAM-afbeeldingen naar mijn apparaat gedownload om overeen te komen met mijn afbeeldingen?
Nee, CSAM-afbeeldingen worden niet opgeslagen op of verzonden naar het apparaat. In plaats van echte afbeeldingen gebruikt Apple onleesbare hashes die op het apparaat zijn opgeslagen. Deze hashes zijn reeksen getallen die bekende CSAM-afbeeldingen vertegenwoordigen, maar die niet opnieuw kunnen worden gelezen of geconverteerd naar irrelevante afbeeldingen. Deze set afbeeldingshashes is gebaseerd op afbeeldingen die zijn verkregen en gevalideerd als CSAM door organisaties voor kinderveiligheid. Met nieuwe coderingsprogramma's kan Apple deze hashes gebruiken om alleen iCloud-accounts te identificeren die fotoreeksen opslaan die overeenkomen met bekende CSAM-foto's en dan alleen ongepaste kinderfoto's kunnen identificeren en geen andere foto's herkennen of zien.
waarom nu?
Een van de grote uitdagingen van Apple is het helpen beschermen van kinderen met behoud van de privacy van gebruikers. Met de nieuwe functie detecteert Apple CSAM-foto's die zijn opgeslagen in iCloud en leert het bedrijf niets over andere gegevens die op uw apparaat zijn opgeslagen.
Bestaande technologieën waarop andere bedrijven vertrouwen, scannen alle gebruikersafbeeldingen die in de cloud zijn opgeslagen. Dit creëert privacyrisico's voor gebruikers, maar het is anders met de fotoscanfunctie van Apple, zoals het niet kunnen herkennen van foto's tenzij ze beide overeenkomen met bekende CSAM-foto's en zijn opgenomen in een iCloud-account dat veel canonieke CSAM-foto's bevat.
Kan het CSAM-beelddetectiesysteem van iCloud worden gebruikt om andere dingen te detecteren?
Apple zei dat het procesontwerp om dit te voorkomen. CSAM-beelddetectie is ontworpen voor iCloud-afbeeldingen, zodat het systeem alleen werkt met CSAM-afbeeldingshashes die worden geleverd door NCMEC en andere kinderveiligheidsorganisaties.
Deze set afbeeldingshashes is gebaseerd op afbeeldingen die zijn verkregen en gevalideerd als CSAM door organisaties voor kinderveiligheid. Er is geen geautomatiseerde rapportage aan wetshandhavers en Apple voert een menselijke beoordeling uit voordat het zijn rapport indient bij het National Center for Missing and Exploited Children (NCMEC).
Als gevolg hiervan is het systeem alleen ontworpen om foto's te rapporteren die bekend staan als CSAM in iCloud-foto's. In de meeste landen, waaronder de Verenigde Staten, is het bezit van deze afbeeldingen een misdrijf en is Apple verplicht om gevallen waarvan wij kennis krijgen te melden aan de bevoegde autoriteiten.
Kunnen overheden Apple dwingen om niet-CSAM-afbeeldingen toe te voegen aan een hashlijstbestand?
Apple zal dergelijke verzoeken weigeren. De CSAM-detectiefunctie is ontworpen om alleen bekende CSAM-foto's te detecteren die zijn opgeslagen in iCloud-foto's en die zijn geïdentificeerd door experts van NCMEC en andere kinderveiligheidsgroepen.
We hebben eerder te maken gehad met eisen om door de overheid opgelegde wijzigingen op te zetten en te publiceren die de privacy van gebruikers ondermijnen, en we hebben deze eisen standvastig afgewezen. We zullen het in de toekomst blijven weigeren. Voor alle duidelijkheid: deze technologie is beperkt tot het detecteren van CSAM die is opgeslagen in iCloud en we zullen geen overheidsverzoeken goedkeuren waarbij mogelijk andere bestanden betrokken zijn.
Bovendien voert Apple een menselijke beoordeling uit voordat het een rapport indient bij NCMEC. Als het systeem afbeeldingen markeert die niet overeenkomen met bekende CSAM-afbeeldingen, wordt het account niet uitgeschakeld en wordt er geen rapport ingediend bij NCMEC.
Kan CSAM worden aangepast om andere dingen of specifieke mensen te targeten?
Ons proces is ontworpen om dit te voorkomen. De afbeeldingshashes die worden gebruikt voor het matchen zijn van bekende en bestaande CSAM-afbeeldingen die zijn verkregen en gevalideerd door kinderveiligheidsorganisaties en dezelfde hash wordt opgeslagen in het besturingssysteem van elke iPhone- en iPad-gebruiker, dus gerichte aanvallen zijn alleen gericht tegen specifieke personen Niet mogelijk gemaakt door ons ontwerp en er is geen geautomatiseerde rapportage aan wetshandhavers, Apple voert een menselijke beoordeling uit voordat het zijn rapport indient, en in het geval dat het systeem waarschijnlijk geen afbeeldingen markeert die niet overeenkomen met bekende CSAM-afbeeldingen, wordt het account niet uitgeschakeld en wordt er geen melding gemaakt zal worden ingediend.
Kunnen onschuldige mensen de fout in gaan vanwege de functie?
Nee, het systeem is ontworpen om uiterst nauwkeurig te zijn en de kans dat het systeem een bepaald account onjuist markeert, is minder dan één op elke biljoen accounts per jaar. Bovendien voert Apple elke keer dat een account door het systeem wordt gemarkeerd een menselijke beoordeling uit vóór Dien zijn rapport in bij NCMEC en als gevolg daarvan zullen systeemfouten of aanvallen niet resulteren in het rapporteren van onschuldigen.
Bron:
Dit artikel heeft me in grote mate gerustgesteld dat Apple of anderen geen misbruik maken van privacy
Ik zie dat dit een misplaatst detail en een misplaatste inspanning is. Het eerste is dat Apple zijn inspanningen opvoert om het probleem van het snel leeglopen van de batterijen op te lossen en de applicaties toe te voegen die de gebruiker nodig heeft en mist in vergelijking met Android-applicaties. Ik bezat bijvoorbeeld een mobiele Lumia XNUMX XL en het was opgenomen in de systeemprogramma's en zonder de noodzaak om een applicatie toe te voegen of een oproepopnamesysteem aan te schaffen En ik herhaal binnen de systeemprogramma's, waarom maakt het Apple niet uit welke voordelen de gebruiker meer heeft dan zijn tijd te verspillen bij het doorbladeren van applicaties die beweren de samenleving te dienen op een moment dat vermoedens worden geuit over het werkelijke doel van de applicatie, zoals het beschermen van kinderen tegen schadelijke afbeeldingen!!!!???
De waarheid is verontrustend.
Apple is geen politiebureau of inlichtingendienst.
Het heeft tientallen manieren om kinderen te helpen.
We kunnen gerustgesteld zijn als we Apple en zijn woorden en verklaringen volledig kunnen vertrouwen..maar...
Ik denk niet dat Apple of anderen die absolute eerlijkheid bezitten, want we leven in een wereld vol leugens die geregeerd worden door belangen!!
Bedankt voor dit leuke onderwerp
Dank je wel inspanning
Een bedrijf dat zich inzet voor de bestrijding van kinderuitbuiting
En bedrijven die geïnteresseerd zijn in de oplader 65 watt en 200 watt
En de camera is 108 pixels
🙃🙃🙃
Hopelijk komt het goed met je en behoud je de privacy op de iPhone
Het spreekt voor zich dat we onze beste lezer eraan herinneren hoe de appel beslissingen neemt, en het is gewoon dat ze moeten worden bestudeerd vanuit alle juridische en praktische aspecten, vooral omdat elke appel een ongeëvenaard model biedt voor het beheren van privacy en veiligheid voor de gebruiker.
Dus, mijn liefste, zou je geloven dat de appel zijn geschiedenis zou opofferen voor een foto?
Deze service is geweldig en zeer betrouwbaar na deze lange uitleg van het artikel, vooral omdat het betrekking heeft op de veiligheid van kinderen en is trouwens optioneel.
Als je een aanhanger bent van de samenzweringstheorie bij elke innovatie - en de meeste van hen zijn in onze Arabische wereld vervormd door achterdocht - heb je het niet nodig, leg de veiligheid van je kinderen in de handen van de echte samenzweerders.
Als je begrijpt wat er is gezegd, is het oké om op zijn minst te experimenteren of een paar jaar te wachten om zeker te zijn.
Het is beter voor ons om van de complotmentaliteit af te komen en het is beter voor ons om de details van de dingen langzaam te begrijpen. Het is waar dat we aan veel complotten gewend zijn, maar om het inzicht te verblinden om tot elke nieuwkomer uit te breiden, is dit de poort van de achterstand die gesloten moet worden, en de uitgifte van coronavaccins is niet ver van die polemiek.
Als je het onderwerp zou volgen, zou je weten dat het niet de Arabieren waren die de complottheorieën hier plaatsten
Maar de Amerikaanse sites en accounts zelf.
Ik vind het goed dat het goed is om voor de kinderen te zorgen Dankjewel Apple
السلام عليكم
Je hebt een probleem, ik weet niet of het een probleem is of niet
Het is een iPad 8 en het werkt geweldig
Na het updaten van het apparaat, was het waarschijnlijk de 14.5-update, het geluid van meldingen werd zwak
Wanneer je de instellingen invoert en een beltoon instelt, is het geluid erg sterk en het geluid van games, YouTube en alle programma's
Maar wanneer u de toon zet voor berichten, e-mail of iets anders, is het geluid zwak en het geluid van logo's ook
Is dit voor alle apparaten of alleen voor mijn apparaat of moet er iets in de instellingen worden gewijzigd
Dit is geen functie
Wanneer uw ogen op de iPad zijn gericht, wordt het meldingsgeluid gedimd en wanneer het scherm is gesloten of er geen aandacht aan besteedt, is het meldingsgeluid van nature luid.
Ok, en in geval van fouten, compenseert Apple gebruikers wiens foto's zijn onderworpen aan menselijke beoordeling en wiens privacy is geschonden door hun foto's zonder toestemming te bekijken?
Krijgen ze überhaupt bericht?
Is het niet de regel in de wetten om niet naar verboden dingen te zoeken, behalve in aanwezigheid van verdenking tegen een bepaalde persoon en met een reden?
Is er een wet die toestaat en erkent dat het principe is om alle inhoud te onderwerpen aan controle en inspectie voor alle mensen, zelfs als het een geautomatiseerde controle is?
Zijn burgers niet gelijk voor de wet? Hoe zit het met gebruikers van andere systemen?
Alles wordt gedaan door Apple Radi...# Together _ Oh _ Apple 🎧💪🏻
Vrede en genade van God
Hoe ken ik de Mac die ik op de iPhone bestudeer en hoe voeg ik deze toe aan de router?
Heel erg bedankt
Ga naar instellingen algemeen -> over
Je krijgt een wifi-adres
Zoek ook in Google en je zult er veel vinden die uitleggen wat je vraagt, ik denk dat het beter is om het privéadres in de wifi-instellingen uit te schakelen omdat het bij elke verbinding een ander Mac-adres instelt om je te beschermen