Para combatir el abuso sexual infantil, Apple tiene la intención de instalar un programa en los iPhone de EE. UU. Para buscar imágenes ilegales, específicamente que incluyan abuso o explotación infantil, sin embargo, muchos expertos creen que esto puede representar un riesgo para la privacidad de los usuarios porque si lo hacen Esto podría abrir la puerta a la monitorización de millones de dispositivos para usuarios de todo el mundo.

Apple planea escanear iPhones estadounidenses en busca de imágenes de abuso infantil


El nuevo sistema de Apple

Apple detalló su sistema propuesto, que llamó "neuralMatch" para algunos académicos estadounidenses a principios de esta semana, y según dos investigadores de seguridad informados sobre la reunión virtual, se espera que el programa de Apple se implemente más ampliamente lo antes posible esta semana.

NeuralMatch es un sistema automatizado que alertará de forma proactiva a un equipo de revisores humanos si creen que se han detectado imágenes ilegales, después de lo cual los revisores se pondrán en contacto con la policía e informarán al propietario del dispositivo.


Apple y agencias de aplicación de la ley

Las tensiones entre empresas de tecnología como Apple y Facebook, que han abogado por un mayor uso del cifrado en sus productos y servicios, y las agencias de aplicación de la ley, se han intensificado desde que Apple se negó a ayudar al FBI en 2016 con el acceso al iPhone de un sospechoso en un tiroteo alboroto. San Bernardino, California.

En un esfuerzo por satisfacer a todas las partes, ya sean usuarios o autoridades, Apple anunció su nuevo sistema Neural Match, que es un compromiso entre su promesa de proteger la privacidad de los clientes y las persistentes demandas de los gobiernos y las agencias de aplicación de la ley para obtener más ayuda en las investigaciones criminales, incluido el terrorismo. y pornografía infantil.


¿Cómo funciona Neural Match?

El algoritmo NeuralMatch escaneará continuamente las fotos almacenadas en el iPhone de un usuario estadounidense y cargadas en el sistema de respaldo de iCloud Imágenes conocidas de abuso sexual infantil.

Apple entrenó el sistema en unas 200000 imágenes de agresión sexual recopiladas por el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro de EE. UU.

Según las personas que han sido informadas sobre los planes, cada foto cargada en iCloud en los EE. UU. Recibirá un "comprobante de seguridad" que dice si es sospechosa o no, y una vez que una cierta cantidad de fotos se marcan como sospechosas, se habilitará Apple para descifrar todas las fotos. Sospechoso, y si es ilegal, será denunciado a las autoridades de inmediato.


Apple y privacidad

Apple puede creer que la privacidad es un derecho de todos los usuarios y, a pesar de sus buenas intenciones sobre el tema de la explotación y el abuso infantil, a muchos expertos en seguridad les preocupa que Apple pueda arriesgarse a permitir que los gobiernos de todo el mundo busquen acceso a los datos personales de sus ciudadanos, lo que ir más allá de su objetivo el original.

"Es una idea absolutamente horrible, porque conduciría a una vigilancia masiva, porque el sistema de Apple podría manipularse para buscar cualquier otra imagen y texto específicos, y lo más importante, la idea de Apple aumentaría la presión sobre otras empresas de tecnología para que utilicen tecnologías similares". dice Ross Anderson, profesor de ingeniería de seguridad en la Universidad de Cambridge.

Alec Moffitt, un investigador de seguridad y activista de privacidad que trabajó anteriormente en Facebook y Deliveroo, dijo que la medida de Apple fue "completamente inesperada y un retroceso significativo en la privacidad".

Matthew Green, profesor de seguridad en la Universidad Johns Hopkins, quien se cree que es el primer investigador en tuitear sobre el tema, también cree que lo que hizo Apple romperá la presa porque los gobiernos presionarán a otras empresas para que hagan lo mismo.

Alan Woodward, profesor de seguridad informática en la Universidad de Surrey, dijo: "El sistema de Apple es menos invasivo, ya que el escaneo se realiza en el teléfono y se notifica a las autoridades si hay una coincidencia, y este enfoque descentralizado es la mejor manera de que puede adoptar para preservar la privacidad ".

Desde tu punto de vista, ¿crees que lo que hizo Apple está bien o está violando la privacidad ?, cuéntanos en los comentarios.

Fuente:

Financial Times

Artículos relacionados