En los últimos días, Apple ha estado en el centro de atención con muchas críticas debido a Característica de escaneo de imágenes Con sus dispositivos, que lanzó para proteger a los niños y prevenir el abuso o explotación de ellos, o lo que se conoce como imágenes CSAM, y muchas organizaciones de privacidad e incluso expertos han expresado su preocupación por la transformación de esta característica en un vacío legal que los hackers o incluso los gobiernos puede explotar para violar la privacidad de los usuarios de iPhone, y para eliminar cualquier confusión o Aclarar y explicar las cosas correctamente. Apple lanzó un archivo en forma de preguntas frecuentes que explica todo sobre su nueva función y lo que está sucediendo detrás de escena, y vamos a aprenda todo sobre la función de seguridad infantil y si realmente amenaza la privacidad de los usuarios o no.
¿Cuál es la diferencia entre Message Protection y CSAM en iCloud Photos?
Estas dos funciones son diferentes y no usan la misma tecnología que la Seguridad de la comunicación en Mensajes está diseñada para brindarles a padres e hijos herramientas adicionales para ayudar a proteger a sus hijos de enviar y recibir imágenes sexualmente explícitas en la aplicación Mensajes. Solo funciona en las fotos enviadas o recibidas en la aplicación Mensajes para las cuentas de niños configuradas con Family Sharing y luego analiza las fotos en el dispositivo y, por lo tanto, no expone la privacidad de los mensajes. Útil y tranquilizador de que está bien si no lo hace. Si desea ver o enviar la imagen y, como precaución adicional, también se les puede decir a los niños pequeños que, por su propia seguridad, sus padres recibirán un mensaje si lo ven.
La segunda función, CSAM Photo Scan en iCloud, está diseñada para mantener CSAM fuera de iCloud Photos sin proporcionar información a Apple acerca de otras fotos que no coincidan con las conocidas de CSAM. La posesión de imágenes CSAM es ilegal en la mayoría de los países, incluido Estados Unidos. Además, esta función solo afecta a los usuarios que han elegido usar Fotos de iCloud para almacenar sus fotos y no afecta a los usuarios que no han elegido usar Fotos de iCloud. No afecta a otros datos del dispositivo y esta función no se aplica a los mensajes.
¿Quién puede utilizar la seguridad de la conexión en los mensajes?
La seguridad de la comunicación en Mensajes solo está disponible para cuentas configuradas como familias en iCloud. Los padres o tutores deben optar por habilitar la función para la familia y las notificaciones para padres solo pueden ser habilitadas por padres o tutores de cuentas para niños de 12 años o menos.
¿Significa esto que los mensajes se compartirán con Apple o con las fuerzas del orden?
Por supuesto que no, Apple nunca podrá acceder a la información en Mensajes como resultado de esta función en Mensajes. Esta función no comparte ninguna información con Apple, NCMEC o agencias de aplicación de la ley. La función de seguridad de las comunicaciones en Mensajes es independiente de la función CSAM para iCloud Photo Scan.
¿Esto rompe el cifrado de extremo a extremo en la aplicación Mensajes?
No. Esto no resulta en una violación de la privacidad de los mensajes y Apple nunca podrá acceder a sus contactos como resultado de esta función. Cualquier usuario de la aplicación Mensajes, incluidos aquellos que tienen habilitada la seguridad de contactos, tiene control total sobre lo que se envía y a quién.
Si la función está habilitada para la cuenta de un niño, el dispositivo evaluará las imágenes en los mensajes y proporcionará una intervención si una imagen se identifica como inapropiada. Es inapropiada y Apple no puede acceder a los mensajes, interferir con las notificaciones o calificar las fotos.
¿Esta función evita que los niños maltratados pidan ayuda?
La función de seguridad de conexión se aplica solo a imágenes sexualmente explícitas compartidas o recibidas en mensajes y no tiene nada que ver con otras aplicaciones que las víctimas pueden usar para buscar ayuda, incluidos los mensajes de texto. Instrucciones sobre cómo buscar ayuda.
¿Se notificará a los padres sin advertir a los niños y sin darles una opción?
No. Oh no; Las cuentas de padres o tutores deben registrarse para habilitar la seguridad de la comunicación en los mensajes Las notificaciones de los padres están habilitadas para las cuentas de niños de 12 años o menos, pero antes de eso, se envía o recibe cualquier imagen obscena o inapropiada, se advierte al niño que si continúan para ver o enviar la imagen, se enviará una notificación a sus padres y, si el niño continúa enviando o viendo una imagen después de esta advertencia, se notificará a los padres.Para las cuentas de niños de 13 a 17 años, el niño aún recibe una advertencia y se le pregunta si les gustaría ver o compartir una foto sexual, pero los padres no son notificados.
¿Significa esto que Apple comprobará todas las fotos almacenadas en mi dispositivo?
Esta función solo se aplica a las fotos que el usuario elige cargar en iCloud. La función no funciona con usuarios que tienen las fotos de iCloud deshabilitadas y tampoco funciona en la biblioteca de fotos de su iPhone.
¿Las imágenes CSAM se descargan en mi dispositivo para que coincidan con mis imágenes?
No, las imágenes CSAM no se almacenan ni se envían al dispositivo. En lugar de imágenes reales, Apple usa hash ilegibles que se almacenan en el dispositivo. Estos hash son cadenas de números que representan imágenes CSAM conocidas, pero no se pueden volver a leer ni convertir en imágenes irrelevantes. Este conjunto de hashes de imágenes se basa en imágenes obtenidas y validadas como CSAM por organizaciones de seguridad infantil. Con las nuevas aplicaciones de encriptación, Apple puede usar estos hash para identificar solo cuentas de iCloud que almacenan lotes de fotos que coinciden con fotos CSAM conocidas y luego solo pueden identificar fotos inapropiadas de niños sin reconocer o ver otras fotos.
¿porqué ahora?
Uno de los grandes desafíos de Apple es ayudar a proteger a los niños mientras se preserva la privacidad de los usuarios. Con la nueva función, Apple detectará las fotos CSAM que están almacenadas en iCloud y la compañía no aprenderá nada sobre otros datos almacenados en su dispositivo.
Las tecnologías existentes en las que otras empresas confían escanean todas las imágenes de usuario almacenadas en la nube. Esto crea riesgos de privacidad para los usuarios, pero es diferente con la función Photo Scan de Apple, como no poder reconocer fotos a menos que ambas coincidan con fotos CSAM conocidas y estén incluidas en una cuenta de iCloud que incluye muchas fotos CSAM canónicas.
¿Se puede utilizar el sistema de detección de imágenes CSAM de iCloud para detectar otras cosas?
Apple dijo que el diseño del proceso para evitar que esto suceda. La detección de imágenes CSAM está diseñada para imágenes de iCloud, por lo que el sistema solo funciona con hashes de imágenes CSAM proporcionados por NCMEC y otras organizaciones de seguridad infantil.
Este conjunto de hashes de imágenes se basa en imágenes obtenidas y validadas como CSAM por organizaciones de seguridad infantil. No hay informes automáticos para las fuerzas del orden y Apple realiza una revisión humana antes de enviar su informe al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).
Como resultado, el sistema solo está diseñado para informar fotos conocidas como CSAM en Fotos de iCloud. En la mayoría de los países, incluido Estados Unidos, la posesión de estas imágenes es un delito y Apple está obligada a informar a las autoridades correspondientes de cualquier caso del que tengamos conocimiento.
¿Pueden los gobiernos obligar a Apple a agregar imágenes que no sean CSAM a un archivo de lista hash?
Apple rechazará tales demandas. La capacidad de detección de CSAM está diseñada para detectar solo fotos conocidas de CSAM almacenadas en iCloud Photos que han sido identificadas por expertos del NCMEC y otros grupos de seguridad infantil.
Hemos enfrentado demandas para construir y publicar cambios impuestos por el gobierno que socavan la privacidad de los usuarios antes, y hemos rechazado firmemente estas demandas. Continuaremos rechazándolo en el futuro. Para ser claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no aprobaremos ninguna solicitud gubernamental que pueda involucrar otros archivos.
Además, Apple realiza una revisión humana antes de enviar un informe al NCMEC. Si el sistema marca imágenes que no coinciden con imágenes CSAM conocidas, la cuenta no se desactivará y no se enviará ningún informe al NCMEC.
¿Se puede personalizar CSAM para dirigirse a otras cosas o personas específicas?
Nuestro proceso está diseñado para evitar que esto suceda. Los hash de imagen utilizados para la comparación se toman de imágenes CSAM conocidas y existentes que han sido obtenidas y validadas por organizaciones de seguridad infantil y el mismo hash se almacena en el sistema operativo de cada usuario de iPhone y iPad, por lo que los ataques dirigidos son solo contra individuos específicos. habilitado por nuestro diseño y no hay informes automatizados a las fuerzas del orden, Apple realiza una revisión humana antes de enviar su informe, y en el caso de que el sistema no marque imágenes que no coincidan con imágenes CSAM conocidas, la cuenta no se inhabilitado y no se presentará ningún informe.
¿Pueden equivocarse personas inocentes debido a la característica?
No, el sistema está diseñado para ser extremadamente preciso y la probabilidad de que el sistema marque incorrectamente una cuenta determinada es menos de una de cada billón de cuentas por año. Además, cada vez que el sistema marca una cuenta, Apple realiza una revisión humana. antes de Presentar su informe al NCMEC y, como resultado, los errores o ataques del sistema no darán lugar a la denuncia de inocentes.
Fuente:
Este artículo me ha asegurado en gran medida que Apple u otros no aprovechan la privacidad.
Veo que esto es un detalle y un esfuerzo fuera de lugar. Lo primero es que Apple intensifique sus esfuerzos para solucionar el problema de agotar sus baterías rápidamente y agregar las aplicaciones que el usuario necesita y extraña en comparación con las aplicaciones de Android. Por ejemplo, yo poseí un móvil Lumia XNUMX XL y estaba incluido en los programas del sistema y sin la necesidad de agregar una aplicación o comprar un sistema de grabación de llamadas Y repito dentro de los programas del sistema, ¿por qué a Apple no le importa lo que beneficia al usuario más que perder el tiempo? en la navegación de aplicaciones que pretenden servir a la sociedad en un momento en el que se levantan sospechas sobre el propósito real de la aplicación, como proteger a los niños de imágenes dañinas !!!! ???
La verdad del asunto es inquietante.
Apple no es una estación de policía ni una agencia de inteligencia.
Tiene decenas de formas de ayudar a los niños.
Podemos estar tranquilos si podemos confiar plenamente en Apple y sus palabras y declaraciones ... pero ...
No creo que Apple u otros posean esa absoluta honestidad porque vivimos en un mundo lleno de mentiras que se rigen por intereses !!
Gracias por este lindo tema.
Gracias esfuerzo
Una empresa dedicada a combatir la explotación infantil
Y empresas interesadas en el cargador de 65 vatios y 200 vatios
Y la cámara es de 108 píxeles.
🙃🙃🙃
Con suerte, estará bien y mantendrá la privacidad en el iPhone
Ni que decir tiene que recordamos a nuestro querido lector cómo toma decisiones la manzana, y es simplemente que hay que estudiarlas en todos los aspectos legales y prácticos, sobre todo porque cualquier manzana proporciona un modelo inigualable en la gestión de la privacidad y seguridad del usuario.
Entonces, querida, ¿creerías que la manzana sacrificaría su historia por una fotografía?
Este servicio es excelente y muy confiable después de una explicación tan larga en el artículo, especialmente en lo que se refiere a la seguridad infantil y, por cierto, es opcional.
Si eres partidario de la teoría de la conspiración en cada innovación, y la mayoría de ellas en nuestro mundo árabe están distorsionadas por la sospecha, no la necesitas, pon la seguridad de tus hijos en manos de los verdaderos conspiradores.
Si comprende lo que se dijo, está bien que al menos experimente o espere unos años para estar seguro.
Es mejor para nosotros deshacernos de las mentalidades de conspiración y es mejor para nosotros entender los detalles de las cosas lentamente. Es cierto que estamos acostumbrados a muchas conspiraciones, pero para cegar la percepción para extender a cada recién llegado, esto es la puerta del atraso que hay que cerrar, y el tema de las vacunas corona no está lejos de esas polémicas.
Si estuvieras siguiendo el tema, sabrías que no fueron los árabes quienes pusieron aquí las teorías de la conspiración.
Pero los propios sitios y cuentas de EE. UU.
Creo que es bueno, es bueno cuidar a los niños Gracias Apple 👏🏻
السلام عليكم
Tienes un problema, no sé si es un problema o no
Es un iPad 8 y funciona muy bien.
Después de actualizar el dispositivo, probablemente fue la actualización 14.5, el sonido de las notificaciones se volvió débil
Cuando ingresa a la configuración y establece un tono de llamada, el sonido es muy fuerte y el sonido de los juegos, YouTube y todos los programas
Pero cuando establece el tono para los mensajes, el correo o cualquier otra cosa, el sonido es débil y el sonido de los logotipos también.
¿Es esto para todos los dispositivos o solo para mi dispositivo o hay algo en la configuración que debe cambiarse?
Esta no es una característica
Cuando sus ojos están en el iPad, el sonido de notificación se atenuará y cuando la pantalla esté apagada o no le preste atención, el sonido de notificación será naturalmente alto.
De acuerdo, y en caso de error, ¿Apple compensa a los usuarios cuyas fotos han sido sometidas a revisión humana y cuya privacidad ha sido violada al ver sus fotos sin permiso?
¿Se les notificará en absoluto?
¿No es la regla en las leyes no buscar cosas prohibidas excepto en presencia de sospechas contra una persona en particular y por una razón?
¿Existe una ley que permita y reconozca que el principio es someter todo el contenido a escrutinio e inspección para todas las personas, incluso si se trata de un control automático?
¿No son los ciudadanos iguales ante la ley? ¿Qué pasa con los usuarios de otros sistemas?
Todo lo hace Apple Radi ... # Juntos _ Oh _ Apple 🎧💪🏻
Paz y misericordia de dios
¿Cómo sé la Mac que estudio en el iPhone y cómo agregarla al enrutador?
ولكم جزيل الشكر
Ir a configuración general -> acerca de
Obtendrás una dirección WiFi
Además, busque en Google y encontrará muchos que explican lo que está pidiendo.Creo que es mejor desactivar la dirección privada en la configuración de Wi-Fi porque establece una dirección Mac diferente con cada conexión para protegerlo.