به منظور مبارزه با سوء استفاده جنسی از کودکان ، اپل قصد دارد برنامه ای را در iPhone های ایالات متحده برای جستجوی تصاویر غیرقانونی ، به ویژه شامل سوء استفاده یا سوءاستفاده از کودکان ، نصب کند ، با این حال ، بسیاری از کارشناسان معتقدند که این ممکن است خطری برای حریم خصوصی کاربران ایجاد کند زیرا اگر این کار را انجام دهند این می تواند دریچه ای برای نظارت بر میلیون ها دستگاه را برای کاربران در سراسر جهان باز کند.

اپل قصد دارد آیفون های آمریکایی را از نظر تصاویر کودک آزاری اسکن کند


سیستم جدید اپل

اپل سیستم پیشنهادی خود را که در اوایل این هفته "neuralMatch" نامید ، برای برخی از دانشگاهیان آمریکایی توضیح داد و به گفته دو محقق امنیتی که در جلسه مجازی توضیح دادند ، انتظار می رود برنامه اپل در اسرع وقت در هفته جاری به طور گسترده تری اجرا شود.

NeuralMatch یک سیستم خودکار است که در صورتی که تصور کنند تصاویر غیرقانونی شناسایی شده اند ، یک تیم از بررسی کنندگان انسانی را هشدار می دهد ، پس از آن بازبینان با نیروی انتظامی تماس گرفته و صاحب دستگاه را گزارش می دهند.


اپل و سازمان های اجرای قانون

تنش بین شرکت های فناوری مانند اپل و فیس بوک ، که از افزایش استفاده از رمزگذاری در محصولات و خدمات خود و نهادهای مجری قانون حمایت می کنند ، از زمانی که اپل از کمک به FBI در سال 2016 برای دسترسی به آیفون یک مظنون در پرونده امتناع کرد ، رو به افزایش است. تیراندازی وحشیانه. سان برناردینو ، کالیفرنیا.

در تلاش برای جلب رضایت همه طرفها ، اعم از کاربران یا مقامات ، اپل سیستم جدید Neural Match خود را اعلام کرد ، که سازش بین وعده آن برای حفظ حریم خصوصی مشتریان و درخواستهای مداوم دولتها و سازمانهای اجرای قانون برای کمک بیشتر در تحقیقات جنایی ، از جمله تروریسم است. و پورنوگرافی کودکان


Neural Match چگونه کار می کند؟

الگوریتم NeuralMatch به طور مداوم عکس های ذخیره شده در iPhone یک کاربر آمریکایی را اسکن کرده و در سیستم پشتیبان iCloud بارگذاری می کند.

اپل این سیستم را در مورد 200000،XNUMX تصویر تجاوز جنسی که توسط مرکز ملی غیرانتفاعی کودکان برای کودکان مفقود شده و استثمار شده جمع آوری شده بود ، آموزش داد.

به گفته افرادی که در مورد برنامه ها مطلع شده اند ، به هر عکسی که در iCloud در ایالات متحده بارگذاری می شود ، "کوپن امنیتی" داده می شود که می گوید مشکوک است یا خیر ، و هنگامی که تعداد معینی از عکسها به عنوان مشکوک علامت گذاری شوند ، فعال می شود اپل برای رمزگشایی همه عکس ها مشکوک و در صورت غیرقانونی ، فوراً به مقامات گزارش می شود.


اپل و حریم خصوصی

ممکن است اپل معتقد باشد که حریم خصوصی حق هر کاربر است و علیرغم نیت خوب آن در مورد سوءاستفاده و سوء استفاده از کودکان ، بسیاری از کارشناسان امنیتی نگران هستند که ممکن است اپل به دولتهای سراسر جهان اجازه دهد تا به اطلاعات شخصی شهروندان خود دسترسی پیدا کنند ، که ممکن است فراتر از هدف اصلی خود بروید

"این ایده کاملاً وحشتناک است ، زیرا منجر به نظارت گسترده می شود ، زیرا سیستم اپل می تواند برای جستجوی سایر تصاویر و متن مورد نظر دستکاری شود و مهمتر از همه ، ایده اپل فشار بر سایر شرکت های فناوری را برای استفاده از فناوری های مشابه افزایش می دهد." راس اندرسون ، استاد مهندسی امنیت در دانشگاه کمبریج می گوید.

الک موفیت ، محقق امنیتی و فعال در زمینه حفظ حریم خصوصی که قبلاً در فیس بوک و دلیورو کار می کرد ، گفت که این اقدام اپل "کاملاً غیرمنتظره و یک عقب نشینی قابل توجه در حفظ حریم خصوصی است."

متیو گرین ، استاد امنیت در دانشگاه جان هاپکینز ، که گمان می رود اولین محققی باشد که در این مورد توییت کرده است ، همچنین معتقد است که آنچه اپل انجام داد سد را می شکند زیرا دولت ها دیگر شرکت ها را نیز تحت فشار قرار می دهند.

آلن وودوارد ، استاد امنیت کامپیوتر در دانشگاه ساری ، می گوید: "سیستم اپل کمتر تهاجمی است ، زیرا اسکن با تلفن انجام می شود و در صورت وجود مسابقه به مقامات اطلاع داده می شود ، و این رویکرد غیرمتمرکز بهترین راه است. می تواند برای حفظ حریم خصوصی اتخاذ کند. "

از دیدگاه شما ، آیا فکر می کنید آنچه اپل انجام داد درست است یا حریم خصوصی را نقض می کند ، در نظرات به ما بگویید

منبع:

فایننشال تایمز

مقالات ذات صل