Tanto el iPhone 12 Pro como el iPad Pro 2020 tienen un nuevo sensor que agrega un escaneo profundo de la escena para obtener mejores fotos llamado LidarPero el futuro apunta a lo que hay más allá de eso, y Apple es optimista sobre esta tecnología y confía mucho en ella, que es una tecnología completamente nueva limitada a la serie iPhone 12, específicamente al iPhone 12 Pro y iPhone 12 Pro Max. Y sensor Lidar Es un punto negro cerca de la lente de la cámara trasera, aproximadamente del mismo tamaño que el flash, y es un nuevo tipo de sensor de profundidad que puede marcar la diferencia de muchas maneras interesantes. Es un término que empezarás a escuchar mucho en los próximos días, así que vamos a conocerlo más, ¿y cuál es el propósito que hizo que Apple lo desarrollara? ¿Y a dónde podría ir la tecnología a continuación?


qué significa Lidar ؟

كلمة Lidar Abreviatura de "Detección y rango de luz" que significa la detección de luz y la determinación de la "distancia" del rango iluminando el objetivo y escaneándolo con un rayo láser, luego devolviéndolo a la fuente nuevamente, luego midiendo este reflejo y los tiempos de retorno de esos rayos y longitudes de onda para crear modelos digitales en XNUMXD del objetivo. En milisegundos.

La técnica se utiliza Lidar Se usa comúnmente para crear mapas de alta resolución, también se usa en arqueología, geografía, geología, terremotos, bosques, la atmósfera, altímetros, control de automóviles sin conductor y más.


La historia de la tecnología Lidar

Las raíces de esta tecnología se remontan a la década de 1930, cuando el concepto básico de Lidar  Se limitó al uso de potentes reflectores para explorar la Tierra y la atmósfera. Luego, desde entonces, se ha utilizado ampliamente en la investigación atmosférica y meteorológica.

Pero el comienzo del gran desarrollo de esta tecnología y su difusión fue en 1961, es decir, poco después de la invención del láser, ya que Hughes Aircraft Corporation presentó en ese momento el primer sistema tipo lidar dedicado al rastreo de satélites, combinando láser- Imágenes enfocadas con la capacidad de calcular distancias midiendo el tiempo. Retorno de la señal utilizando sensores apropiados y electrónica de adquisición de datos. Originalmente se llamaba "Colidar", que es la abreviatura de Detección y alcance de luz coherente, que se deriva del término "Radar".

Sin embargo, LiDAR no ganó la popularidad que merecía hasta veinte años después. Fue solo durante la década de XNUMX después de la introducción del Sistema de Posicionamiento Global (GPS) que se convirtió en un método popular para calcular mediciones geoespaciales precisas. Ahora, el alcance de esa tecnología se ha extendido a muchos dominios.


¿Cómo funciona el lidar para detectar la profundidad?

Lidar es un tipo de cámara Tiempo de vueloAlgunos otros teléfonos inteligentes miden la profundidad con un solo pulso de luz, mientras que el iPhone que usa este tipo de tecnología lidar envía ondas de pulsos láser a una red de puntos infrarrojos, que son pulsos de luz invisibles para el ojo humano, pero puedes verlos. con una cámara Para la visión nocturna, se calculan las distancias variables de un objeto en la escena. Y estos pulsos de luz, junto con la información recopilada por el sistema, generan información tridimensional precisa de la escena y el objeto de destino, luego otros elementos como el procesador y el resto de componentes vienen a su vez para recolectar y analizar los datos y producir el resultado final para trabajar al máximo.

LiDAR sigue un principio simple: arroja luz láser a un objeto y calcula el tiempo que tarda en volver al sensor LiDAR. Dada la velocidad a la que viaja la luz “alrededor de 186000 millas por segundo”, el proceso de medición de distancia precisa a través de LiDAR parece increíblemente rápido.


¿No es lo mismo un sensor lidar que un sensor? ID de la cara ؟

Lo es, pero con un mayor alcance. La idea es la misma, ya que la cámara TrueDepth en Face ID dispara una serie de láseres infrarrojos, pero tiene un alcance corto y solo funciona a unos pocos metros de distancia. ¡Mientras que los sensores lidar operan a un alcance de hasta 5 metros!


Un sensor lidar ya está presente en muchas otras tecnologías

LiDAR es una tecnología ubicua. Se utilizan en vehículos autónomos o auxiliares. Se utilizan en robots y drones. Los auriculares AR como HoloLens 2 tienen una tecnología similar, que define los espacios de las habitaciones antes de colocar objetos virtuales en XNUMXD en ellos. La técnica lidar, como se mencionó anteriormente, también tiene una historia muy larga.

El antiguo accesorio de detección de profundidad de Xbox de Microsoft era Kinect, que también era una cámara con un sensor de profundidad infrarrojo. Apple adquirió Prime Sense, la compañía que ayudó a crear la tecnología Kinect, en 2013. Ahora, tenemos la tecnología TrueDepth que escanea la cara y el sensor LiDAR en la matriz de la cámara trasera del iPhone 12 Pro que detecta la profundidad aún más.


La cámara del iPhone 12 Pro funciona mejor con el sensor lidar

Las cámaras Time-Of-Flight en los teléfonos inteligentes tienden a usarse para mejorar la precisión y la velocidad de enfoque, y el iPhone 12 Pro hace lo mismo, enfocándose mejor y más rápido para mejorar con poca luz, hasta seis veces más que en condiciones de poca luz.

Un mejor enfoque es una ventaja, ya que el iPhone 12 Pro puede agregar más datos de imagen gracias al escaneo XNUMXD. Aunque este elemento aún no se ha identificado, la cámara frontal TrueDepth que detecta la profundidad se ha utilizado de manera similar con aplicaciones, y los desarrolladores externos pueden sumergirse en algunas ideas utilizando estas nuevas tecnologías y esto es lo que realmente veremos.


También beneficia enormemente a la realidad aumentada

Lidar permite que el iPhone 12 Pro ejecute aplicaciones de realidad aumentada más rápidamente y cree un mapa de escena rápido para agregar más detalles. Gran parte de las actualizaciones de realidad aumentada en iOS 14 utilizan lidar para crear objetos virtuales y ocultarlos detrás de objetos reales, y se trata de colocar objetos virtuales dentro de componentes de sala más complejos con gran precisión.

Los desarrolladores están utilizando LIDAR para escanear hogares y espacios y realizar escaneos que se pueden usar no solo en realidad aumentada, sino también para guardar modelos de lugares en formatos como CAD.

Fue probado en un juego de Apple Arcade, Hot Lava, que en realidad usa lidar para despejar la habitación y todos sus obstáculos. Y pudo colocar objetos virtuales en las escaleras y ocultar objetos detrás de objetos realistas en la habitación.

Esperamos más aplicaciones AR que comiencen a agregar soporte Lidar de manera más profesional y vayan más allá de lo que mencionamos.


Muchas empresas sueñan con auriculares que combinen objetos virtuales con cosas reales, ya que adoptarán gafas de realidad aumentada, en las que Facebook, Qualcomm, Snapchat, Microsoft, Magic Leap y, muy probablemente, Apple y otros están trabajando, dependerán de la presencia de dispositivos avanzados. Mapas XNUMXD del mundo y colocación de objetos virtuales en ellos.

Estos mapas en XNUMXD ahora se crean con escáneres y equipos especiales, casi como la versión de escaneo global de vehículos de Google Maps. Pero existe la posibilidad de que dispositivos especiales eventualmente ayuden a las personas a recopilar esta información o agregar datos adicionales sobre la marcha.

Una vez más, los auriculares AR como Magic Leap y HoloLens escanean previamente su entorno antes de colocar las cosas, y la tecnología AR equipada con lidar de Apple funciona de la misma manera. En este sentido, el iPhone 12, 12 Pro y iPad Pro son similares a los auriculares AR sin la parte de los auriculares. Esto, por supuesto, podría allanar el camino para que Apple eventualmente cree sus propias gafas.


Apple no es el primero en descubrir una tecnología como esta en el teléfono

Google tuvo la misma idea cuando se creó el proyecto Tango, y se enfoca principalmente en tecnologías de realidad aumentada, y los prototipos iniciales del proyecto Tango fueron dispositivos móviles inteligentes “teléfonos y tabletas” basados ​​en el sistema Android que poseían la percepción espacial del entorno en el que se encuentra el dispositivo mediante el seguimiento del movimiento tridimensional y la captura de la forma del entorno circundante en tiempo real, mediante la adición de un sistema de visión avanzado, procesamiento de imágenes y sensores especializados, y se utilizó solo en dos teléfonos, incluido el Lenovo Phab 2 Pro.

El conjunto de cámaras avanzadas también contiene sensores infrarrojos y puede mapear habitaciones, crear escaneos XNUMXD y mapas de realidad aumentada profunda y medir espacios interiores. Estos teléfonos equipados con Tango duraron poco, y fueron reemplazados por algoritmos de visión por computadora e inteligencia artificial que detectaban la profundidad estimada a través de cámaras sin la necesidad de agregar sensores reales, como sucedió en los teléfonos Pixel de Google.

Con esto, el iPhone 12 Pro es quien reformuló la tecnología Lidar, trabajando para brindarla mejor y trayendo una tecnología que se estableció hace mucho tiempo y se extendió a otras industrias necesarias, y ahora se está integrando en los autos autónomos. , Auriculares AR y mucho más.

¿Qué opinas de la tecnología Lidar en los teléfonos? ¿Es obligatorio? ¿Cree que dará lugar a un gran salto en la tecnología y las aplicaciones de los teléfonos inteligentes? Háznoslo saber en los comentarios.

Fuentes:

mundo geoespacial | cnet | Wikipedia

Artículos relacionados