Inaasahang ilulunsad ng Apple ang tampok nito Bagong Kaligtasan ng Bata CSAM Sa paglaon ng taong ito, partikular sa paglulunsad ng iOS 15, ngunit sinabi ng isa sa mga developer na natagpuan nila ang algorithm kung saan gumagana ang tampok sa mga mas lumang bersyon ng operating system ng iPhone at natuklasan ang isang bahid at isang teknikal na kamalian sa teknolohiyang ito. Kaya ano ang depekto na ito at ano ang tugon ni Apple?
Ang tampok na pagtatasa at pag-scan ng imahe ng CSAM
Sinabi ng isang gumagamit ng Reddit na natuklasan niya ang isang bersyon ng NeuralHash algorithm na ginamit upang makita ang mga imahe ng CSAM sa loob ng iOS 14.3.
Ang tugon ng Apple ay: Ang nakuha na bersyon ay hindi napapanahon at hindi gagamitin.
Ang developer na kilala bilang AsuharietYgvar ay nakakita ng NerualHash code na inilibing sa loob ng iOS 14.3 at sinabi na binago niya ang engineered ang code at muling itinayo ang isang gumaganang modelo sa Python na maaaring masubukan sa pamamagitan ng pagpasa ng mga imahe ng mga code na ito.
Sinasabi ng developer na ang algorithm na ito ay hindi naloko ng compression ng imahe o pagbabago ng laki ngunit hindi nito matukoy ang proseso ng pag-crop o pag-ikot ng imahe. Gamit ang wika ng Python, sinimulan ng mga gumagamit ng platform ng GitHub na suriin kung paano gumagana ang algorithm at kung maaari itong maling magamit at samantalahin sa isang paraan na nagbabanta sa mga may-ari ng iPhone. Inabuso at ganap na walang-sala na larawan ngunit nililinlang nito ang mga code ng Apple at gumagawa ng isang tugma sa mga CSAM code , sa gayon sa teorya ang isang hacker ay maaaring magpadala ng mga natural na naghahanap ng mga larawan bilang iyong aparato wallpaper o isang normal na tanawin sa mga gumagamit ng Apple upang subukang patakbuhin ang algorithm at bitagin sila at maging sanhi ng mga problema.
Hindi ang pangwakas na bersyon
Sa kabila ng mga pagkukulang na ito, masasabi na ang natuklasan na algorithm ay hindi ang pangwakas na bersyon dahil ang Apple ay nagtatayo ng algorithm ng detection ng imahe ng CSAM sa loob ng maraming taon kung kaya't may ilang mga bersyon ng code para sa pagsubok.
Tulad ng tungkol sa posibilidad ng paglikha ng pekeng mga larawan at ipadala ang mga ito sa mga gumagamit ng iPhone upang bitagin sila, hindi ito ganoon kadali, sapagkat hindi ibinubunyag ng Apple ang mga larawan maliban kung na-synchronize sila ng ulap at huwag kalimutan ang pagsusuri ng tao upang matiyak na ang mga larawan tunay na naglalaman ng pang-aabuso sa bata, ang lahat ng ito ay nangangahulugan na ang pag-atake na Ito ay ipinapalagay na totoo sa teorya ngunit mahirap sa pagsasagawa.
Tumugon si Apple
Sinabi ng Apple sa isang pahayag na ang NeuralHash code na natuklasan sa iOS 14.3 ay hindi ang pangwakas na bersyon, at wala pang natuklasan ang isang database ng CSAM o pagtutugma ng algorithm sa iOS 15 beta pa, ngunit ang tampok ay inaasahang mailulunsad sa buong bersyon nito pagkatapos ang hitsura ng system. Bagong paglunsad ng iOS 15.
Pinagmulan:
Inaaresto nila ako sa pagkain ng mga bata dahil ang aking mobile phone ay puno ng mga video at nakikipaglaro ako sa aking mga anak na parang kinakain ko sila hahahaha
Wala pa ring sinabi ang Apple tungkol sa pag-abiso at pagbabayad sa mga gumagamit na ang mga larawan ay napapailalim sa pagsusuri ng tao at napatunayan na walang sala.
Bayaran ba sila ng Apple para sa paglabag sa kanilang privacy sa pamamagitan ng pagpapakita sa mga empleyado ng Apple ng kanilang pribadong larawan?
Siyempre, gagamitin ito upang maghanap para sa iba pang mga bagay at wala ang aming kaalaman, at magagamit ito ng mga bansa upang maghanap para sa anumang iba pa.
Ang Apple ay hindi isang anghel, at sa huli ito ay isang mapagsamantalang kumpanya na interesado lamang sa pagkalap ng pera
Salamat sa iyong pagsisikap at interes