reiniciar

En los últimos días, Apple ha estado en el centro de atención con muchas críticas debido a Característica de escaneo de imágenes Con sus dispositivos, que lanzó para proteger a los niños y prevenir el abuso o explotación de ellos, o lo que se conoce como imágenes CSAM, y muchas organizaciones de privacidad e incluso expertos han expresado su preocupación por la transformación de esta característica en un vacío legal que los hackers o incluso los gobiernos puede explotar para violar la privacidad de los usuarios de iPhone, y para eliminar cualquier confusión o Aclarar y explicar las cosas correctamente. Apple lanzó un archivo en forma de preguntas frecuentes que explica todo sobre su nueva función y lo que está sucediendo detrás de escena, y vamos a aprenda todo sobre la función de seguridad infantil y si realmente amenaza la privacidad de los usuarios o no.

Apple responde a las acusaciones de violaciones a la privacidad en su función contra el abuso infantil


¿Cuál es la diferencia entre Message Protection y CSAM en iCloud Photos?

Estas dos funciones son diferentes y no usan la misma tecnología que la Seguridad de la comunicación en Mensajes está diseñada para brindarles a padres e hijos herramientas adicionales para ayudar a proteger a sus hijos de enviar y recibir imágenes sexualmente explícitas en la aplicación Mensajes. Solo funciona en las fotos enviadas o recibidas en la aplicación Mensajes para las cuentas de niños configuradas con Family Sharing y luego analiza las fotos en el dispositivo y, por lo tanto, no expone la privacidad de los mensajes. Útil y tranquilizador de que está bien si no lo hace. Si desea ver o enviar la imagen y, como precaución adicional, también se les puede decir a los niños pequeños que, por su propia seguridad, sus padres recibirán un mensaje si lo ven.

La segunda función, CSAM Photo Scan en iCloud, está diseñada para mantener CSAM fuera de iCloud Photos sin proporcionar información a Apple acerca de otras fotos que no coincidan con las conocidas de CSAM. La posesión de imágenes CSAM es ilegal en la mayoría de los países, incluido Estados Unidos. Además, esta función solo afecta a los usuarios que han elegido usar Fotos de iCloud para almacenar sus fotos y no afecta a los usuarios que no han elegido usar Fotos de iCloud. No afecta a otros datos del dispositivo y esta función no se aplica a los mensajes.


¿Quién puede utilizar la seguridad de la conexión en los mensajes?

La seguridad de la comunicación en Mensajes solo está disponible para cuentas configuradas como familias en iCloud. Los padres o tutores deben optar por habilitar la función para la familia y las notificaciones para padres solo pueden ser habilitadas por padres o tutores de cuentas para niños de 12 años o menos.


¿Significa esto que los mensajes se compartirán con Apple o con las fuerzas del orden?

Por supuesto que no, Apple nunca podrá acceder a la información en Mensajes como resultado de esta función en Mensajes. Esta función no comparte ninguna información con Apple, NCMEC o agencias de aplicación de la ley. La función de seguridad de las comunicaciones en Mensajes es independiente de la función CSAM para iCloud Photo Scan.


¿Esto rompe el cifrado de extremo a extremo en la aplicación Mensajes?

No. Esto no resulta en una violación de la privacidad de los mensajes y Apple nunca podrá acceder a sus contactos como resultado de esta función. Cualquier usuario de la aplicación Mensajes, incluidos aquellos que tienen habilitada la seguridad de contactos, tiene control total sobre lo que se envía y a quién.

 Si la función está habilitada para la cuenta de un niño, el dispositivo evaluará las imágenes en los mensajes y proporcionará una intervención si una imagen se identifica como inapropiada. Es inapropiada y Apple no puede acceder a los mensajes, interferir con las notificaciones o calificar las fotos.


¿Esta función evita que los niños maltratados pidan ayuda?

La función de seguridad de conexión se aplica solo a imágenes sexualmente explícitas compartidas o recibidas en mensajes y no tiene nada que ver con otras aplicaciones que las víctimas pueden usar para buscar ayuda, incluidos los mensajes de texto. Instrucciones sobre cómo buscar ayuda.


¿Se notificará a los padres sin advertir a los niños y sin darles una opción?

No. Oh no; Las cuentas de padres o tutores deben registrarse para habilitar la seguridad de la comunicación en los mensajes Las notificaciones de los padres están habilitadas para las cuentas de niños de 12 años o menos, pero antes de eso, se envía o recibe cualquier imagen obscena o inapropiada, se advierte al niño que si continúan para ver o enviar la imagen, se enviará una notificación a sus padres y, si el niño continúa enviando o viendo una imagen después de esta advertencia, se notificará a los padres.Para las cuentas de niños de 13 a 17 años, el niño aún recibe una advertencia y se le pregunta si les gustaría ver o compartir una foto sexual, pero los padres no son notificados.


¿Significa esto que Apple comprobará todas las fotos almacenadas en mi dispositivo?

Esta función solo se aplica a las fotos que el usuario elige cargar en iCloud. La función no funciona con usuarios que tienen las fotos de iCloud deshabilitadas y tampoco funciona en la biblioteca de fotos de su iPhone.


¿Las imágenes CSAM se descargan en mi dispositivo para que coincidan con mis imágenes?

No, las imágenes CSAM no se almacenan ni se envían al dispositivo. En lugar de imágenes reales, Apple usa hash ilegibles que se almacenan en el dispositivo. Estos hash son cadenas de números que representan imágenes CSAM conocidas, pero no se pueden volver a leer ni convertir en imágenes irrelevantes. Este conjunto de hashes de imágenes se basa en imágenes obtenidas y validadas como CSAM por organizaciones de seguridad infantil. Con las nuevas aplicaciones de encriptación, Apple puede usar estos hash para identificar solo cuentas de iCloud que almacenan lotes de fotos que coinciden con fotos CSAM conocidas y luego solo pueden identificar fotos inapropiadas de niños sin reconocer o ver otras fotos.


¿porqué ahora?

Uno de los grandes desafíos de Apple es ayudar a proteger a los niños mientras se preserva la privacidad de los usuarios. Con la nueva función, Apple detectará las fotos CSAM que están almacenadas en iCloud y la compañía no aprenderá nada sobre otros datos almacenados en su dispositivo.

Las tecnologías existentes en las que otras empresas confían escanean todas las imágenes de usuario almacenadas en la nube. Esto crea riesgos de privacidad para los usuarios, pero es diferente con la función Photo Scan de Apple, como no poder reconocer fotos a menos que ambas coincidan con fotos CSAM conocidas y estén incluidas en una cuenta de iCloud que incluye muchas fotos CSAM canónicas.


¿Se puede utilizar el sistema de detección de imágenes CSAM de iCloud para detectar otras cosas?

Apple dijo que el diseño del proceso para evitar que esto suceda. La detección de imágenes CSAM está diseñada para imágenes de iCloud, por lo que el sistema solo funciona con hashes de imágenes CSAM proporcionados por NCMEC y otras organizaciones de seguridad infantil.

Este conjunto de hashes de imágenes se basa en imágenes obtenidas y validadas como CSAM por organizaciones de seguridad infantil. No hay informes automáticos para las fuerzas del orden y Apple realiza una revisión humana antes de enviar su informe al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

Como resultado, el sistema solo está diseñado para informar fotos conocidas como CSAM en Fotos de iCloud. En la mayoría de los países, incluido Estados Unidos, la posesión de estas imágenes es un delito y Apple está obligada a informar a las autoridades correspondientes de cualquier caso del que tengamos conocimiento.


¿Pueden los gobiernos obligar a Apple a agregar imágenes que no sean CSAM a un archivo de lista hash?

Apple rechazará tales demandas. La capacidad de detección de CSAM está diseñada para detectar solo fotos conocidas de CSAM almacenadas en iCloud Photos que han sido identificadas por expertos del NCMEC y otros grupos de seguridad infantil.

Hemos enfrentado demandas para construir y publicar cambios impuestos por el gobierno que socavan la privacidad de los usuarios antes, y hemos rechazado firmemente estas demandas. Continuaremos rechazándolo en el futuro. Para ser claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no aprobaremos ninguna solicitud gubernamental que pueda involucrar otros archivos.

Además, Apple realiza una revisión humana antes de enviar un informe al NCMEC. Si el sistema marca imágenes que no coinciden con imágenes CSAM conocidas, la cuenta no se desactivará y no se enviará ningún informe al NCMEC.


¿Se puede personalizar CSAM para dirigirse a otras cosas o personas específicas?

Nuestro proceso está diseñado para evitar que esto suceda. Los hash de imagen utilizados para la comparación se toman de imágenes CSAM conocidas y existentes que han sido obtenidas y validadas por organizaciones de seguridad infantil y el mismo hash se almacena en el sistema operativo de cada usuario de iPhone y iPad, por lo que los ataques dirigidos son solo contra individuos específicos. habilitado por nuestro diseño y no hay informes automatizados a las fuerzas del orden, Apple realiza una revisión humana antes de enviar su informe, y en el caso de que el sistema no marque imágenes que no coincidan con imágenes CSAM conocidas, la cuenta no se inhabilitado y no se presentará ningún informe.


¿Pueden equivocarse personas inocentes debido a la característica?

No, el sistema está diseñado para ser extremadamente preciso y la probabilidad de que el sistema marque incorrectamente una cuenta determinada es menos de una de cada billón de cuentas por año. Además, cada vez que el sistema marca una cuenta, Apple realiza una revisión humana. antes de Presentar su informe al NCMEC y, como resultado, los errores o ataques del sistema no darán lugar a la denuncia de inocentes.

¿Qué opinas de la nueva función de Apple para detectar imágenes inapropiadas para niños? Cuéntanos en los comentarios.

Fuente:

manzana

Artículos relacionados