Sa nagdaang mga araw, ang Apple ay nasa pansin na may maraming mga pagpuna dahil sa Tampok na pag-scan ng imahe Sa mga aparato nito, na inilunsad nito upang maprotektahan ang mga bata at maiwasan ang pang-aabuso o pagsasamantala sa kanila, o kung ano ang kilala bilang mga imahe ng CSAM, at maraming mga samahan sa privacy at maging ang mga dalubhasa ay nagpahayag ng pag-aalala tungkol sa paggawa ng tampok na ito sa isang butas na maaaring pagsamantalahan ng mga hacker o kahit na mga pamahalaan upang labagin ang privacy ng mga gumagamit ng iPhone, at upang maalis ang anumang pagkalito o Linawin at ipaliwanag nang tama ang mga bagay. Naglunsad ang Apple ng isang file sa anyo ng mga FAQ na nagpapaliwanag ng lahat tungkol sa bagong tampok at kung ano ang nangyayari sa likod ng mga eksena, at alamin natin ang lahat tungkol sa tampok sa kaligtasan ng bata at kung talagang nagbabanta ito sa privacy ng mga gumagamit o hindi.

Tumugon ang Apple sa mga paratang ng mga paglabag sa privacy sa tampok na kontra-bata na pang-aabuso


Ano ang pagkakaiba sa pagitan ng Proteksyon ng Mensahe at CSAM sa Mga Larawan sa iCloud?

Ang dalawang tampok na ito ay magkakaiba at hindi gumagamit ng parehong teknolohiya tulad ng Security Security sa Mga Mensahe ay idinisenyo upang bigyan ang mga magulang at mga anak ng karagdagang mga tool upang matulungan silang protektahan ang kanilang mga anak mula sa pagpapadala at pagtanggap ng mga tahasang sekswal na imahe sa Messages app. Gumagana lamang ito sa mga larawang ipinadala o natanggap sa Messages app para sa mga account ng mga bata na na-set up kasama ang Pagbabahagi ng Pamilya at pagkatapos ay pinag-aaralan ang mga larawan sa aparato at sa gayon ay hindi inilalantad ang privacy ng mga mensahe. Nakatutulong at nakasisiguro na OK kung hindi siya ' t nais na tingnan o ipadala ang larawan at bilang isang labis na pag-iingat, masasabi din sa mga maliliit na bata na para sa kanilang sariling kaligtasan, ang kanilang mga magulang ay makakatanggap ng mensahe kung nakikita nila ito.

Ang pangalawang tampok, ang CSAM Photo Scan sa iCloud, ay idinisenyo upang hindi mailabas ang CSAM sa Mga Larawan sa iCloud nang hindi nagbibigay ng impormasyon sa Apple tungkol sa anumang mga larawan maliban sa mga tumutugma sa mga kilalang larawan ng CSAM. Ang pagkakaroon ng mga imahe ng CSAM ay labag sa batas sa karamihan ng mga bansa, kabilang ang Estados Unidos. Gayundin, nakakaapekto lamang ang tampok na ito sa mga gumagamit na pumili na gumamit ng Mga Larawan sa iCloud upang maiimbak ang kanilang mga larawan at hindi ito nakakaapekto sa mga gumagamit na hindi pinili na gumamit ng Mga Larawan sa iCloud. Walang epekto sa anumang iba pang data sa aparato at ang tampok na ito ay hindi nalalapat sa mga mensahe.


Sino ang maaaring gumamit ng seguridad ng koneksyon sa mga mensahe?

Ang seguridad ng komunikasyon sa Mga Mensahe ay magagamit lamang para sa mga account na na-set up bilang mga pamilya sa iCloud. Ang mga magulang o tagapag-alaga ay dapat pumili upang paganahin ang tampok para sa pamilya at ang mga abiso ng magulang ay maaari lamang paganahin ng mga magulang o tagapag-alaga para sa mga account ng mga bata na 12 taong gulang o mas bata.


Nangangahulugan ba ito na ibabahagi ang mga mensahe sa Apple o mga ahensya ng nagpapatupad ng batas?

Siyempre hindi, hindi maa-access ng Apple ang impormasyon sa Mga Mensahe bilang resulta ng tampok na ito sa Mga Mensahe. Ang tampok na ito ay hindi nagbabahagi ng anumang impormasyon sa Apple, NCMEC, o mga ahensya ng nagpapatupad ng batas. Ang tampok na seguridad ng mga komunikasyon sa Mga Mensahe ay hiwalay mula sa tampok na CSAM para sa iCloud Photo Scan.


Nasisira ba nito ang end-to-end na pag-encrypt sa Messages app?

Hindi. Hindi ito nagreresulta sa isang paglabag sa privacy para sa mga mensahe, at hindi kailanman maa-access ng Apple ang iyong mga contact bilang resulta ng tampok na ito. Ang sinumang gumagamit ng app na Mga Mensahe, kabilang ang mga may pinagana ang seguridad ng contact, ay may kumpletong kontrol sa kung ano ang ipinadala at kanino.

 Kung pinagana ang tampok para sa account ng isang bata, susuriin ng aparato ang mga imahe sa mga mensahe at magkakaloob ng isang interbensyon kung ang isang imahe ay nakilala bilang hindi naaangkop. Hindi nararapat at hindi ma-access ng Apple ang mga mensahe, makagambala sa mga notification, o mag-rate ng mga larawan.


Pinipigilan ba ng tampok na ito ang mga batang inabuso na humingi ng tulong?

Nalalapat lamang ang tampok na seguridad ng koneksyon sa mga malalaswang sekswal na larawang ibinahagi o natanggap sa mga mensahe at walang kinalaman sa iba pang mga app na maaaring magamit ng mga biktima upang humingi ng tulong, kabilang ang mga text message. Mga tagubilin sa kung paano humingi ng tulong.


Aabisuhan ba ang mga magulang nang hindi binalaan ang mga anak at binibigyan sila ng pagpipilian?

Hindi. O hindi; Ang mga account ng magulang o tagapag-alaga ay dapat mag-sign up upang paganahin ang seguridad ng komunikasyon sa mga mensahe Ang mga abiso ng magulang ay pinagana para sa mga account ng mga bata na 12 taong gulang o mas bata ngunit bago nito, ang anumang malaswa o hindi naaangkop na imahe ay naipadala o natanggap, binalaan ang bata na kung magpapatuloy sila upang Tingnan o ipadala ang imahe, isang notification ang ipapadala sa kanilang mga magulang at kung ang bata ay patuloy na magpadala o tumingin ng isang imahe pagkatapos ng babalang ito, aabisuhan ang mga magulang Para sa mga account ng mga batang may edad 13-17, binalaan pa rin ang bata at tinanong kung nais nilang tingnan o Magbahagi ng isang sekswal na larawan, ngunit hindi aabisuhan ang mga magulang.


Nangangahulugan ba ito na susuriin ng Apple ang lahat ng mga larawan na nakaimbak sa aking aparato?

Nalalapat lamang ang tampok na ito sa mga larawan na pipiliin ng gumagamit na i-upload sa iCloud. Hindi gagana ang tampok sa mga gumagamit na may mga larawan sa iCloud na hindi pinagana, at hindi rin ito gumagana sa library ng larawan sa iyong iPhone.


Na-download ba ang mga imahe ng CSAM sa aking aparato upang tumugma sa aking mga imahe?

Hindi, ang mga imahe ng CSAM ay hindi nakaimbak o ipinadala sa aparato. Sa halip na mga tunay na imahe, gumagamit ang Apple ng hindi nababasa na mga hash na nakaimbak sa aparato. Ang mga hash na ito ay mga string ng mga numero na kumakatawan sa mga kilalang mga imahe ng CSAM, ngunit hindi mabasa at mai-convert muli sa mga hindi kaugnay na imahe. Ang hanay ng mga imahe na hash ay batay sa mga larawang nakuha at napatunayan bilang CSAM ng mga organisasyong pangkaligtasan ng bata. Sa mga bagong aplikasyon ng pag-encrypt, maaaring gamitin ng Apple ang mga hash na ito upang makilala lamang ang mga account sa iCloud na nag-iimbak ng mga batch ng larawan na tumutugma sa mga kilalang larawan ng CSAM at makikilala lamang ang mga hindi naaangkop na larawan ng mga bata nang hindi kinikilala o nakikita ang anumang iba pang mga larawan.


bakit ngayon?

Ang isa sa malaking hamon ng Apple ay ang pagtulong upang protektahan ang mga bata habang pinapanatili ang privacy ng mga gumagamit. Gamit ang bagong tampok, makakakita ang Apple ng mga larawan ng CSAM na nakaimbak sa iCloud at hindi matututo ang kumpanya ng anuman tungkol sa iba pang data na nakaimbak sa iyong aparato.

Ang mga umiiral nang teknolohiya na umaasa sa ibang mga kumpanya sa pag-scan ng lahat ng mga imahe ng gumagamit na nakaimbak sa cloud. Lumilikha ito ng mga panganib sa privacy para sa mga gumagamit ngunit iba ito sa tampok na Photo Scan ng Apple tulad ng hindi makilala ang mga larawan maliban kung pareho silang tumutugma sa mga kilalang mga larawan ng CSAM at isinama sa isang iCloud account na may kasamang maraming mga canonical na larawan ng CSAM.


Maaari bang magamit ang sistema ng pagtuklas ng imahe ng CSAM ng iCloud upang makita ang iba pang mga bagay?

Sinabi ng Apple na ang disenyo ng proseso upang maiwasan itong mangyari. Ang pagtuklas ng imahe ng CSAM ay idinisenyo para sa mga imaheng iCloud upang ang system ay gagana lamang sa mga imahe ng CSAM na hash na ibinigay ng NCMEC at iba pang mga organisasyong pangkaligtasan ng bata.

Ang hanay ng mga imahe na hash ay batay sa mga larawang nakuha at napatunayan bilang CSAM ng mga organisasyong pangkaligtasan ng bata. Walang awtomatikong pag-uulat sa nagpapatupad ng batas, at nagsasagawa ang Apple ng pagsusuri ng tao bago isumite ang ulat nito sa National Center for Missing and Exploited Children (NCMEC).

Bilang isang resulta, ang sistema ay dinisenyo lamang upang mag-ulat ng mga larawan na kilala bilang CSAM sa iCloud Photos. Sa karamihan ng mga bansa, kabilang ang Estados Unidos, ang pagkakaroon ng mga imaheng ito ay isang krimen at obligado ang Apple na mag-ulat ng anumang mga kaso na namulat kami sa mga naaangkop na awtoridad.


Maaari bang pilitin ng mga gobyerno ang Apple na magdagdag ng mga imaheng hindi CSAM sa isang hash list file?

Tatanggihan ng Apple ang anumang mga naturang kahilingan. Ang kakayahan sa pagtuklas ng CSAM ay idinisenyo upang makita lamang ang mga kilalang mga larawan ng CSAM na nakaimbak sa mga Larawan sa iCloud na nakilala ng mga dalubhasa sa NCMEC at iba pang mga pangkat sa kaligtasan ng bata.

Naharap namin ang mga kahilingan upang buuin at mai-publish ang mga pagbabago na ipinataw ng gobyerno na humina sa privacy ng mga gumagamit dati, at matatag naming tinanggihan ang mga kahilingang ito. Patuloy naming tanggihan ito sa hinaharap. Upang maging malinaw, ang teknolohiyang ito ay limitado sa pagtuklas ng CSAM na nakaimbak sa iCloud at hindi namin aprubahan ang anumang kahilingan ng gobyerno na maaaring may kasamang ibang mga file.

Bukod dito, nagsasagawa ang Apple ng pagsusuri ng tao bago magsumite ng isang ulat sa NCMEC. Kung ang system ay nag-flag ng mga imahe na hindi tumutugma sa mga kilalang mga imahe ng CSAM, ang account ay hindi ma-disable at walang ulat na isusumite sa NCMEC.


Maaari bang ipasadya ang CSAM upang ma-target ang iba pang mga bagay o tukoy na mga tao?

Ang aming proseso ay idinisenyo upang maiwasang mangyari ito. Ang mga imahe na hash na ginamit para sa pagtutugma ay kinuha mula sa mga kilala at mayroon nang mga imahe ng CSAM na nakuha at napatunayan ng mga organisasyong pangkaligtasan ng bata at ang parehong hash ay nakaimbak sa operating system ng bawat gumagamit ng iPhone at iPad, kaya ang mga naka-target na pag-atake ay laban lamang sa mga partikular na indibidwal na Hindi pinagana ng aming disenyo at walang awtomatikong pag-uulat sa nagpapatupad ng batas, nagsasagawa ang Apple ng isang pagsusuri ng tao bago isumite ang ulat nito, at sa kaganapan na ang system ay malamang na hindi mag-flag ng mga imahe na hindi tumutugma sa mga kilalang mga imahe ng CSAM, ang account ay hindi hindi pinagana at walang ulat ang isasampa.


Maaari bang magkamali ang mga inosenteng tao dahil sa tampok?

Hindi, ang sistema ay idinisenyo upang maging napaka-tumpak, at ang posibilidad ng system na hindi wastong pag-flag sa anumang naibigay na account ay mas mababa sa isa sa bawat trilyong mga account bawat taon. Bilang karagdagan, anumang oras na ang isang account ay nai-flag ng system, nagsasagawa ang Apple ng isang pagsusuri ng tao bago Isumite ang ulat nito sa NCMEC at bilang isang resulta, ang mga pagkakamali o pag-atake sa system ay hindi magreresulta sa pag-uulat ng walang sala.

Ano sa palagay mo ang bagong tampok ng Apple upang makita ang mga hindi naaangkop na imahe para sa mga bata, sabihin sa amin sa mga komento

Pinagmulan:

mansanas

Mga kaugnay na artikulo