طی روزهای گذشته ، اپل به دلیل انتقادات زیادی در کانون توجه قرار گرفته است قابلیت اسکن تصویر با دستگاه های خود ، که برای محافظت از کودکان و جلوگیری از سوء استفاده یا سوء استفاده از آنها ، یا آنچه که به عنوان تصاویر CSAM شناخته می شود ، راه اندازی شد ، و بسیاری از سازمان های حفظ حریم خصوصی و حتی کارشناسان از تبدیل این ویژگی به یک روزنه که هکرها یا حتی دولت ها می توانند از آن سوء استفاده کنند ، ابراز نگرانی کرده اند. نقض حریم خصوصی کاربران آیفون و حذف هرگونه ابهام یا روشن کردن و توضیح درست موارد. اپل یک فایل را در قالب سوالات متداول راه اندازی کرد که همه چیز را در مورد ویژگی جدید آن و آنچه در پشت صحنه اتفاق می افتد توضیح می دهد ، و بیایید همه چیز را بیاموزیم در مورد ویژگی ایمنی کودک و اینکه آیا واقعا حریم خصوصی کاربران را تهدید می کند یا خیر.

اپل به اتهام نقض حریم خصوصی در ویژگی ضد کودک آزاری خود پاسخ می دهد


تفاوت بین Message Protection و CSAM در iCloud Photos چیست؟

این دو ویژگی متفاوت هستند و از فناوری یکسانی استفاده نمی کنند ، زیرا امنیت ارتباطات در پیامها به گونه ای طراحی شده است که به والدین و فرزندان ابزارهای اضافی برای محافظت از فرزندان خود در برابر ارسال و دریافت تصاویر جنسی در برنامه پیام ها طراحی شده است. فقط روی عکسهای ارسال شده یا دریافت شده در برنامه پیامها برای حسابهای کودکان تنظیم شده توسط Family Sharing کار می کند و سپس عکسهای موجود در دستگاه را تجزیه و تحلیل می کند و بنابراین حریم خصوصی پیامها را فاش نمی کند. مفید و اطمینان بخش است که اگر این کار را انجام ندهد " نمی خواهید عکس را مشاهده یا ارسال کنید و به عنوان یک احتیاط بیشتر ، به کودکان خردسال نیز می توان گفت که برای ایمنی خود ، والدین آنها در صورت مشاهده پیامی دریافت خواهند کرد.

ویژگی دوم ، CSAM Photo Scan در iCloud ، طوری طراحی شده است که CSAM را از عکس های iCloud دور نگه دارد بدون اینکه در مورد عکس های دیگری به غیر از عکس هایی که با CSAM شناخته شده مطابقت دارند اطلاعاتی به اپل ارائه دهد. در اختیار داشتن تصاویر CSAM در اکثر کشورها از جمله ایالات متحده غیرقانونی است. همچنین ، این ویژگی فقط بر کاربرانی تأثیر می گذارد که برای ذخیره عکس های خود از iCloud Photos استفاده کرده اند و بر کاربرانی که استفاده از iCloud Photos را انتخاب نکرده اند ، تأثیر نمی گذارد. هیچ تاثیری بر روی داده های دیگر دستگاه وجود ندارد و این ویژگی در مورد پیام ها اعمال نمی شود.


چه کسی می تواند از امنیت اتصال در پیام ها استفاده کند؟

امنیت ارتباطات در پیامها فقط برای حسابهایی که به عنوان خانواده در iCloud تنظیم شده اند در دسترس است. والدین یا سرپرستان باید انتخاب کنند که این ویژگی را برای خانواده فعال کنند و اعلان های والدین فقط توسط والدین یا سرپرستان برای حسابهای کودکان 12 سال یا کمتر فعال می شود.


آیا این بدان معناست که پیام ها با اپل یا سازمان های اجرای قانون به اشتراک گذاشته می شود؟

البته نه ، اپل هرگز نمی تواند به اطلاعات موجود در پیامها در نتیجه این ویژگی در پیامها دسترسی پیدا کند. این ویژگی هیچ اطلاعاتی را با Apple ، NCMEC یا سازمان های اجرای قانون به اشتراک نمی گذارد. ویژگی امنیت ارتباطات در پیامها از ویژگی CSAM برای اسکن عکس iCloud جدا است.


آیا این رمزگذاری سرتاسری را در برنامه Messages خراب می کند؟

خیر این امر منجر به نقض حریم خصوصی پیام ها نمی شود و اپل در نتیجه این ویژگی هرگز نمی تواند به مخاطبین شما دسترسی پیدا کند. هر کاربر برنامه پیامها ، از جمله کسانی که امنیت تماس را فعال کرده اند ، کنترل کاملی بر آنچه ارسال می شود و برای چه کسی ارسال می شود.

 اگر این ویژگی برای حساب کودک فعال باشد ، دستگاه تصاویر موجود در پیام ها را ارزیابی کرده و در صورت تشخیص نامناسب بودن تصویر ، مداخله ای را انجام می دهد.


آیا این ویژگی مانع از این می شود که کودکان بدسرپرست به دنبال کمک باشند؟

ویژگی امنیت اتصال فقط در مورد تصاویر جنسی به اشتراک گذاشته شده یا دریافت شده در پیام ها اعمال می شود و هیچ ربطی به برنامه های دیگر ندارد که قربانیان می توانند از آنها برای درخواست کمک استفاده کنند ، از جمله پیام های متنی. دستورالعمل نحوه درخواست کمک.


آیا والدین بدون اخطار به فرزندان و دادن حق انتخاب به آنها مطلع خواهند شد؟

خیر ای نه ؛ حساب های والدین یا سرپرست باید ثبت نام کنند تا امنیت ارتباطات در پیام ها فعال شود اعلان های والدین برای حسابهای کودکان 12 سال یا کمتر فعال است ، اما قبل از آن ، هرگونه تصویر ناپسند یا نامناسب ارسال یا دریافت می شود ، به کودک هشدار داده می شود که در صورت ادامه مشاهده یا ارسال تصویر ، یک اعلان برای والدین آنها ارسال می شود و اگر کودک پس از این هشدار به ارسال یا مشاهده تصویر ادامه دهد ، به والدین اطلاع داده می شود. مایل است یک عکس جنسی را مشاهده یا به اشتراک بگذارد ، اما به والدین اطلاع داده نمی شود.


آیا این بدان معناست که اپل تمام عکس های ذخیره شده در دستگاه من را بررسی می کند؟

این ویژگی فقط در مورد عکس هایی که کاربر انتخاب می کند تا در iCloud بارگذاری کند اعمال می شود. این ویژگی با کاربرانی که عکس های iCloud را غیرفعال کرده اند کار نمی کند و همچنین در کتابخانه عکس های iPhone شما کار نمی کند.


آیا تصاویر CSAM برای مطابقت با تصاویر من در دستگاه من بارگیری می شوند؟

خیر ، تصاویر CSAM روی دستگاه ذخیره نمی شوند یا به دستگاه ارسال نمی شوند. به جای تصاویر واقعی ، اپل از هش های ناخوانا که در دستگاه ذخیره می شود ، استفاده می کند. این هش ها رشته هایی از اعداد هستند که تصاویر CSAM شناخته شده را نشان می دهند ، اما نمی توانند دوباره خوانده شده یا به تصاویر نامربوط تبدیل شوند. این مجموعه از هش های تصویر بر اساس تصاویری است که توسط سازمان های ایمنی کودک به عنوان CSAM تأیید شده است. با کاربردهای جدید رمزگذاری ، اپل می تواند از این هش ها فقط برای شناسایی حساب های iCloud که دسته ای از عکس ها را با عکس های CSAM شناخته شده ذخیره می کند ، استفاده کند و سپس فقط بتواند عکس های نامناسب کودکان را بدون شناسایی یا مشاهده عکس های دیگر شناسایی کند.


حالا چرا؟

یکی از چالش های بزرگ اپل کمک به محافظت از کودکان و حفظ حریم خصوصی کاربران است. با ویژگی جدید ، اپل عکس های CSAM را که در iCloud ذخیره شده است شناسایی می کند و شرکت در مورد سایر داده های ذخیره شده در دستگاه شما چیزی نمی آموزد.

فناوریهای موجود که سایر شرکتها به آن متکی هستند ، اسکن تمام تصاویر کاربر ذخیره شده در ابر را انجام می دهند. این امر خطرات حریم خصوصی را برای کاربران ایجاد می کند ، اما با ویژگی Photo Scan اپل مانند عدم تشخیص عکس ها مگر اینکه هر دو با عکس های CSAM شناخته شده مطابقت داشته باشند و در یک حساب iCloud که شامل بسیاری از عکس های متعارف CSAM است ، گنجانده شود.


آیا می توان از سیستم تشخیص تصویر CSAM iCloud برای تشخیص موارد دیگر استفاده کرد؟

اپل گفت که طراحی فرآیند برای جلوگیری از این اتفاق می افتد. تشخیص تصویر CSAM برای تصاویر iCloud طراحی شده است به طوری که سیستم فقط با هش های تصویر CSAM ارائه شده توسط NCMEC و سایر سازمان های ایمنی کودک کار می کند.

این مجموعه از هش های تصویر بر اساس تصاویری است که توسط سازمان های ایمنی کودک به عنوان CSAM تأیید شده است. هیچ گزارش خودکار به مجریان قانون وجود ندارد و اپل قبل از ارسال گزارش خود به مرکز ملی کودکان مفقود و مورد استثمار (NCMEC) ، یک بررسی انسانی انجام می دهد.

در نتیجه ، سیستم فقط برای گزارش عکس هایی که در iCloud Photos به CSAM معروف هستند طراحی شده است. در اکثر کشورها ، از جمله ایالات متحده ، داشتن این تصاویر جرم محسوب می شود و اپل موظف است هر موردی را که متوجه شدیم به مقامات مربوط گزارش دهد.


آیا دولت ها می توانند اپل را مجبور کنند تصاویر غیر CSAM را به فایل لیست هش اضافه کند؟

اپل از چنین خواسته هایی خودداری خواهد کرد. قابلیت تشخیص CSAM برای تشخیص فقط عکسهای CSAM شناخته شده ذخیره شده در iCloud Photos طراحی شده است که توسط متخصصان NCMEC و سایر گروههای ایمنی کودک شناسایی شده است.

ما قبلاً با ایجاد و انتشار تغییرات تحمیل شده توسط دولت که حریم خصوصی کاربران را تضعیف می کند روبرو بوده ایم و این خواسته ها را قاطعانه رد کرده ایم. ما در آینده به رد آن ادامه می دهیم. برای روشن تر شدن ، این فناوری محدود به تشخیص CSAM ذخیره شده در iCloud است و ما هیچ درخواست دولتی که ممکن است شامل فایل های دیگر باشد را تأیید نمی کنیم.

علاوه بر این ، اپل قبل از ارسال گزارش به NCMEC یک بررسی انسانی انجام می دهد. اگر سیستم تصاویری را نشان دهد که با تصاویر شناخته شده CSAM مطابقت ندارند ، حساب غیرفعال نمی شود و گزارشی به NCMEC ارسال نمی شود.


آیا CSAM می تواند برای هدف قرار دادن چیزهای دیگر یا افراد خاص سفارشی شود؟

روند ما طوری طراحی شده است که از وقوع چنین اتفاقی جلوگیری کند. هش های تصویری که برای مطابقت استفاده می شود از تصاویر CSAM شناخته شده و موجود است که توسط سازمان های ایمنی کودک به دست آمده و معتبر است و همین هش در سیستم عامل هر کاربر iPhone و iPad ذخیره می شود ، بنابراین حملات هدفمند فقط علیه افراد خاصی انجام می شود. با طراحی ما فعال شده است و هیچ گزارش خودکار به مجریان قانون وجود ندارد ، اپل قبل از ارسال گزارش خود یک بررسی انسانی انجام می دهد و در صورتی که سیستم به احتمال زیاد تصاویری را که با تصاویر شناخته شده CSAM مطابقت ندارند پرچم گذاری کند ، حساب کاربری نخواهد بود. غیرفعال است و گزارشی ثبت نمی شود


آیا افراد بی گناه می توانند به دلیل ویژگی اشتباه کنند؟

نه ، سیستم بسیار دقیق طراحی شده است و احتمال اینکه سیستم به طور اشتباه هر حساب خاصی را علامت گذاری کند کمتر از یک در هر تریلیون حساب در سال است. علاوه بر این ، هر زمان که یک حساب توسط سیستم پرچم گذاری شود ، اپل یک انسان را هدایت می کند قبل از ارسال گزارش خود به NCMEC بررسی کنید و در نتیجه ، خطاها یا حملات سیستم منجر به گزارش بی گناهان نخواهد شد.

نظر شما در مورد ویژگی جدید اپل برای تشخیص تصاویر نامناسب برای کودکان ، در نظرات به ما بگویید

منبع:

سیب

مقالات ذات صل