Para combatir el abuso sexual infantil, Apple tiene la intención de instalar un programa en los iPhone de EE. UU. Para buscar imágenes ilegales, específicamente que incluyan abuso o explotación infantil, sin embargo, muchos expertos creen que esto puede representar un riesgo para la privacidad de los usuarios porque si lo hacen Esto podría abrir la puerta a la monitorización de millones de dispositivos para usuarios de todo el mundo.
El nuevo sistema de Apple
Apple detalló su sistema propuesto, que llamó "neuralMatch" para algunos académicos estadounidenses a principios de esta semana, y según dos investigadores de seguridad informados sobre la reunión virtual, se espera que el programa de Apple se implemente más ampliamente lo antes posible esta semana.
NeuralMatch es un sistema automatizado que alertará de forma proactiva a un equipo de revisores humanos si creen que se han detectado imágenes ilegales, después de lo cual los revisores se pondrán en contacto con la policía e informarán al propietario del dispositivo.
Apple y agencias de aplicación de la ley
Las tensiones entre empresas de tecnología como Apple y Facebook, que han abogado por un mayor uso del cifrado en sus productos y servicios, y las agencias de aplicación de la ley, se han intensificado desde que Apple se negó a ayudar al FBI en 2016 con el acceso al iPhone de un sospechoso en un tiroteo alboroto. San Bernardino, California.
En un esfuerzo por satisfacer a todas las partes, ya sean usuarios o autoridades, Apple anunció su nuevo sistema Neural Match, que es un compromiso entre su promesa de proteger la privacidad de los clientes y las persistentes demandas de los gobiernos y las agencias de aplicación de la ley para obtener más ayuda en las investigaciones criminales, incluido el terrorismo. y pornografía infantil.
¿Cómo funciona Neural Match?
El algoritmo NeuralMatch escaneará continuamente las fotos almacenadas en el iPhone de un usuario estadounidense y cargadas en el sistema de respaldo de iCloud Imágenes conocidas de abuso sexual infantil.
Apple entrenó el sistema en unas 200000 imágenes de agresión sexual recopiladas por el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro de EE. UU.
Según las personas que han sido informadas sobre los planes, cada foto cargada en iCloud en los EE. UU. Recibirá un "comprobante de seguridad" que dice si es sospechosa o no, y una vez que una cierta cantidad de fotos se marcan como sospechosas, se habilitará Apple para descifrar todas las fotos. Sospechoso, y si es ilegal, será denunciado a las autoridades de inmediato.
Apple y privacidad
Apple puede creer que la privacidad es un derecho de todos los usuarios y, a pesar de sus buenas intenciones sobre el tema de la explotación y el abuso infantil, a muchos expertos en seguridad les preocupa que Apple pueda arriesgarse a permitir que los gobiernos de todo el mundo busquen acceso a los datos personales de sus ciudadanos, lo que ir más allá de su objetivo el original.
"Es una idea absolutamente horrible, porque conduciría a una vigilancia masiva, porque el sistema de Apple podría manipularse para buscar cualquier otra imagen y texto específicos, y lo más importante, la idea de Apple aumentaría la presión sobre otras empresas de tecnología para que utilicen tecnologías similares". dice Ross Anderson, profesor de ingeniería de seguridad en la Universidad de Cambridge.
Alec Moffitt, un investigador de seguridad y activista de privacidad que trabajó anteriormente en Facebook y Deliveroo, dijo que la medida de Apple fue "completamente inesperada y un retroceso significativo en la privacidad".
Matthew Green, profesor de seguridad en la Universidad Johns Hopkins, quien se cree que es el primer investigador en tuitear sobre el tema, también cree que lo que hizo Apple romperá la presa porque los gobiernos presionarán a otras empresas para que hagan lo mismo.
Alan Woodward, profesor de seguridad informática en la Universidad de Surrey, dijo: "El sistema de Apple es menos invasivo, ya que el escaneo se realiza en el teléfono y se notifica a las autoridades si hay una coincidencia, y este enfoque descentralizado es la mejor manera de que puede adoptar para preservar la privacidad ".
Fuente:
Esta decisión es una máscara de la que las autoridades competentes han podido convencer a Apple, y toda injusticia se cuela de una manera sublime y buena, porque si se niega, apoyará las violaciones.
Mañana muchos musulmanes se volverán como Humaidan Al-Turki
Porque los musulmanes juegan con los niños
Y el acoso que provoca
(Si no hace esto, habrá fitnah en la tierra y una corrupción generalizada).
No se considera una infracción.
Pero, ¿qué ven ellos?
Es sospechoso y muy peligroso, y momento tras momento, nos encontramos con Apple recurriendo al sistema Android y la violación de la privacidad que tú defiendes y comercializas mucho ahora, luego de la presión del gobierno. La solución es que tú como usuario copies tus datos y guárdelo en un disco duro privado. Usted o compra un iPhone con espacio de memoria interna. Muy alto, cancelando y borrando tus fotos y datos de iCloud, evitando que Apple y otras intrusiones y robando tus datos. Sigo viendo iCloud como un gran servicio como el sistema iCloud, pero ahora se ha vuelto necesario deshacerse de iCloud. Desafortunadamente, En el futuro, es posible que veamos muchas cosas malas de Apple.
Gracias por este lindo tema.
¡Las empresas de tecnología violan la privacidad !: Debemos luchar contra ellas: ¡Apple está violando la privacidad!
El programa se considera experimental, por lo que no hay necesidad de entrar en pánico.
El sistema de Apple es el sistema más poderoso que protege la privacidad del usuario
En estos casos (acoso + trata de personas), hay etapas y cada vez se puede encontrar una solución
La primera etapa (prevenir el acoso desde el principio)
Y fue anunciado por Apple que tan pronto como nota imágenes anormales o acoso infantil en cualquier mensaje, lo previene en el niño y envía una alerta a los padres (un paso genial)
La segunda etapa es cuando un niño se pierde o se pierde, el departamento sospechoso realiza un examen del sospechoso, y si tiene nuevas fotos del niño, se informa a las autoridades para arrestarlo y devolver al niño secuestrado (un paso genial)
¿A quién le molestan estos pasos?
Todo el que no está satisfecho tiene prohibiciones o secretos y es preferible no aplicarlos porque puede llegar a las autoridades y causarle daño (la solución es que eres un ser humano normal y de buen carácter)
¡Creo que es una puerta para espiar la privacidad de las personas, especialmente por parte de los gobiernos (especialmente la región de Medio Oriente 😉😏) para nosotros como Oriente Medio !? Esto es inaceptable porque (Apple) es conocida por esto (es decir, la privacidad) excepto por el tecnología en sus dispositivos y, por lo tanto, la gente la quiere a pesar de los altos precios de los dispositivos. ¡Creo que (Apple) perderá mucho en esta área si da ese paso !?
Lo peor que puede hacer Apple es establecerse como un dios sobre las personas para monitorearlas. Comienza con "buenas" intenciones y luego se convierte en un nuevo macartista, como el presidente corporativo homo que decide hacernos responsables por usar la palabra homo. El dispositivo es mi dispositivo y lo compré con un mar de dinero y nadie tiene derecho a monitorearme. La costumbre es que el acusado sea inocente hasta que se demuestre lo contrario, pero Apple con esta intención dice que todo el mundo está acusado. joderla.
Esta excusa provocará una violación de la privacidad para otros fines, francamente, un muy mal paso por parte de Apple, que se enorgullece de la privacidad.Lamentablemente, perdí la confianza en Apple, sobre todo porque es la única empresa que canta sobre la privacidad.
Lo más importante es la seguridad de los niños.
Gracias a Apple
El principal problema en este asunto es usar una excusa, el fin justifica los medios, y al abrir esta puerta no podrás cerrarla, esto dará una justificación para que algunas partes espíen a los que consideras sus oponentes. , y esto conducirá necesariamente a la injusticia y la transgresión.
El objetivo es bueno, pero, por supuesto, será mal utilizado ... Además, esto pone a Apple en una posición en la que ya no puede decir privacidad porque ha prescindido de una parte ahora y otras partes comenzarán después de un período de tiempo y después de un si bien no habrá diferencia entre este y Android en términos de privacidad
Felicito a la mayoría de la gente por su ingenuidad.
Desde el momento del álbum de fotos categoriza las fotos.
¡Escribe armas, personas, niños, árboles y encuentra la clasificación!
Tuve una situación en la que fotografié mis armas de herencia personal. El mismo día, en la carretera, encuentro un puesto de control en una nueva ubicación, como si fuera para mí, ¡y el auto es revisado minuciosamente!
Antes de estos artículos, conocía el efecto de fotografiar estas armas, y el XNUMX% pensaba que estaba buscando, pero confío en mi situación.
Contra la idea, y se pueden encontrar otras soluciones para enfrentar el crimen
En contra, por supuesto, porque es posible, en primer lugar, que ni Apple ni otros se preocupen por los niños. Si se preocupan por los niños, donarían de los miles de millones excedentes. ¿Cuántos niños en todo el mundo mueren de hambre, y no? uno pensó que harían algo. ¿Cuántos niños no encontraron un asiento en la escuela, y ni los gobiernos ni Apple hicieron nada?
Está claro para el capitalismo y los gobiernos que si Apple hace esto, seré la primera persona en deshacerse de sus dispositivos.
En contra, por supuesto, porque en primer lugar es posible arrestar a los delincuentes, pero cuando la noticia se difunda a través de los monitores de Apple en busca de fotos de teléfonos, ningún delincuente se atreverá a fotografiar imágenes sospechosas y estará dispuesto a no usarlas en estas cosas. y el único beneficiario son los gobiernos para espiar a los ciudadanos
Antes de esto, Apple anunció una nueva función, que es rastrear dispositivos mientras están cerrados, y ahora se abre la privacidad con la excusa de la seguridad de los niños, ¡como si Apple fuera una fuente legislativa y ejecutiva! Esta no es una herramienta de prevención de delitos para que Apple se permita rastrear delitos
Estoy totalmente de acuerdo, y maldita privacidad a costa de la seguridad de un niño, quienquiera que sea
Todos estos países occidentales siguen el mismo enfoque
Abre la puerta a los tabúes hasta que el criminal llega a lo irrazonable, ya sean asesinatos, explotación, drogas ... etc.
Y luego se llega a aprobar una ley que incluye a todos, buenos y malos, por la indulgencia en abrir puertas, y como mencioné antes
Una persona cuerda busca las causas y las resuelve estableciendo leyes estrictas de disuasión antes de que ocurra el delito.
Es similar a lo que hace Estados Unidos al lidiar con el contrabando y el abuso de drogas.
Ella sabe y permite que imágenes legales o ilegales ingresen a las drogas, ¡pero luego aprueba leyes contra estas sustancias!
Ni Apple ni ninguna entidad comercial tiene derecho a convertirse en el jefe militar o en el superhombre de la región.
Lo mejor es no interferir y darle al usuario su privacidad
¿Cuántos niños son explotados en el mundo?
- ¿Cuántos errores obtendrás en el programa y reconocerás otro tipo de imagen como abuso, y se rompe la privacidad de esta persona con el pretexto de buscar un explotador para niños?
No estoy con abusadores de niños
Pero con mi privacidad
Si el usuario se ve afectado por explotadores de niños o la comunidad se ve afectada y la decisión se somete a votación y el resultado es que el software está permitido
Está bien
👎
Atrapar y eliminar el crimen es una cuestión humanitaria, y Apple puede idear soluciones para preservar la privacidad, que es una de sus prioridades.
Tiene aspectos positivos y negativos.
noaaaa
No estoy de acuerdo con este comportamiento de Apple, y no tiene derecho a hacerlo, incluso si resulta en muerte.
Gran movimiento de
Chicos, el pensamiento de esta empresa está más allá de lo que imaginamos
Pensamos en la huella dactilar dentro de la pantalla
Piensa en formas de prevenir la explotación sexual de niños
¿Qué edad tienes? 😍