muling simulan

Inaasahang ilulunsad ng Apple ang tampok nito Bagong Kaligtasan ng Bata CSAM Sa paglaon ng taong ito, partikular sa paglulunsad ng iOS 15, ngunit sinabi ng isa sa mga developer na natagpuan nila ang algorithm kung saan gumagana ang tampok sa mga mas lumang bersyon ng operating system ng iPhone at natuklasan ang isang bahid at isang teknikal na kamalian sa teknolohiyang ito. Kaya ano ang depekto na ito at ano ang tugon ni Apple?

Ang isang kamalian ay natuklasan sa teknolohiya ng anti-bata na pang-aabuso sa Apple, at tumutugon ang Apple


Ang tampok na pagtatasa at pag-scan ng imahe ng CSAM

Sinabi ng isang gumagamit ng Reddit na natuklasan niya ang isang bersyon ng NeuralHash algorithm na ginamit upang makita ang mga imahe ng CSAM sa loob ng iOS 14.3.

Ang tugon ng Apple ay: Ang nakuha na bersyon ay hindi napapanahon at hindi gagamitin.

Ang developer na kilala bilang AsuharietYgvar ay nakakita ng NerualHash code na inilibing sa loob ng iOS 14.3 at sinabi na binago niya ang engineered ang code at muling itinayo ang isang gumaganang modelo sa Python na maaaring masubukan sa pamamagitan ng pagpasa ng mga imahe ng mga code na ito.

Sinasabi ng developer na ang algorithm na ito ay hindi naloko ng compression ng imahe o pagbabago ng laki ngunit hindi nito matukoy ang proseso ng pag-crop o pag-ikot ng imahe. Gamit ang wika ng Python, sinimulan ng mga gumagamit ng platform ng GitHub na suriin kung paano gumagana ang algorithm at kung maaari itong maling magamit at samantalahin sa isang paraan na nagbabanta sa mga may-ari ng iPhone. Inabuso at ganap na walang-sala na larawan ngunit nililinlang nito ang mga code ng Apple at gumagawa ng isang tugma sa mga CSAM code , sa gayon sa teorya ang isang hacker ay maaaring magpadala ng mga natural na naghahanap ng mga larawan bilang iyong aparato wallpaper o isang normal na tanawin sa mga gumagamit ng Apple upang subukang patakbuhin ang algorithm at bitagin sila at maging sanhi ng mga problema.


Hindi ang pangwakas na bersyon

Sa kabila ng mga pagkukulang na ito, masasabi na ang natuklasan na algorithm ay hindi ang pangwakas na bersyon dahil ang Apple ay nagtatayo ng algorithm ng detection ng imahe ng CSAM sa loob ng maraming taon kung kaya't may ilang mga bersyon ng code para sa pagsubok.

Tulad ng tungkol sa posibilidad ng paglikha ng pekeng mga larawan at ipadala ang mga ito sa mga gumagamit ng iPhone upang bitagin sila, hindi ito ganoon kadali, sapagkat hindi ibinubunyag ng Apple ang mga larawan maliban kung na-synchronize sila ng ulap at huwag kalimutan ang pagsusuri ng tao upang matiyak na ang mga larawan tunay na naglalaman ng pang-aabuso sa bata, ang lahat ng ito ay nangangahulugan na ang pag-atake na Ito ay ipinapalagay na totoo sa teorya ngunit mahirap sa pagsasagawa.


Tumugon si Apple

Sinabi ng Apple sa isang pahayag na ang NeuralHash code na natuklasan sa iOS 14.3 ay hindi ang pangwakas na bersyon, at wala pang natuklasan ang isang database ng CSAM o pagtutugma ng algorithm sa iOS 15 beta pa, ngunit ang tampok ay inaasahang mailulunsad sa buong bersyon nito pagkatapos ang hitsura ng system. Bagong paglunsad ng iOS 15.

Ano sa tingin mo tungkol sa bagong tampok sa kaligtasan ng bata ng Apple, at mayroon bang isang takot na maaaring hindi ito magamit nang masama, sabihin sa amin sa mga komento

Pinagmulan:

vice

Mga kaugnay na artikulo