Se espera que Apple lance su función Nuevo CSAM de seguridad infantil A finales de este año, específicamente con el lanzamiento de iOS 15, pero uno de los desarrolladores dijo que encontraron el algoritmo a través del cual funciona la función en versiones anteriores del sistema operativo del iPhone y descubrió una falla y una falla técnica en esta tecnología. Entonces, ¿cuál es este defecto y cuál fue la respuesta de Apple?

Se ha descubierto una falla en la tecnología anti-abuso infantil de Apple, y Apple responde


Función de análisis y escaneo de imágenes CSAM

Un usuario de Reddit dice que descubrió una versión del algoritmo NeuralHash que se usa para detectar imágenes CSAM dentro de iOS 14.3.

La respuesta de Apple fue: La versión extraída no está actualizada y no se utilizará.

El desarrollador conocido como AsuharietYgvar pudo encontrar el código NerualHash enterrado dentro de iOS 14.3 y dijo que realizó ingeniería inversa del código y reconstruyó un modelo funcional en Python que se puede probar pasando imágenes de estos códigos.

El desarrollador afirma que este algoritmo no se deja engañar por la compresión o el cambio de tamaño de la imagen, pero no puede detectar el proceso de recorte o rotación de la imagen. Usando el lenguaje de Python, los usuarios de la plataforma GitHub comenzaron a examinar cómo funciona el algoritmo y si puede ser mal utilizado y explotado de una manera que amenace a los propietarios de iPhone. Foto abusada y completamente inocente, pero engaña a los códigos de Apple y produce una coincidencia con los códigos CSAM. , por lo tanto, en teoría, un pirata informático podría enviar estas fotos de aspecto muy natural como fondo de pantalla de su dispositivo o un paisaje normal a los usuarios de Apple para intentar ejecutar el algoritmo y atraparlos y causarles problemas.


No es la versión final

A pesar de estas deficiencias, se puede decir que el algoritmo descubierto no es la versión final, ya que Apple ha estado construyendo el algoritmo de detección de imágenes CSAM durante años, por lo que se supone que hay algunas versiones del código para probar.

En cuanto a la posibilidad de crear fotos falsas y enviárselas a los usuarios de iPhone para atraparlas, no es tan sencillo, porque Apple no revela las fotos a menos que estén sincronizadas con la nube y no olvide la revisión humana para asegurarse de que las fotos En realidad contienen abuso infantil, todo esto significa que el ataque que se supone es cierto en teoría pero difícil en la práctica.


Apple respondió

Apple dijo en un comunicado que el código NeuralHash descubierto en iOS 14.3 no es la versión final, y nadie ha descubierto la existencia de una base de datos CSAM o un algoritmo coincidente en la versión beta de iOS 15 todavía, pero se espera que la función se lance en su versión completa después de la aparición del sistema Nuevo lanzamiento iOS 15.

¿Qué opinas sobre la nueva función de seguridad infantil de Apple? ¿Existe el temor de que se pueda usar incorrectamente? Cuéntanos en los comentarios.

Fuente:

vicio

Artículos relacionados