Tanto o iPhone 12 Pro quanto o iPad Pro 2020 têm um novo sensor que adiciona uma varredura profunda da cena para fotos melhores, chamado Lidar, Mas o futuro aponta para o que está além disso, e a Apple está otimista com essa tecnologia e depende muito dela, que é uma tecnologia totalmente nova limitada à série iPhone 12, especificamente o iPhone 12 Pro e o iPhone 12 Pro Max. E sensor Lidar É um ponto preto próximo à lente da câmera traseira, quase do mesmo tamanho do flash, e é um novo tipo de sensor de profundidade que pode fazer a diferença de muitas maneiras interessantes. É um termo que você começará a ouvir muito nos próximos dias, então vamos conhecê-lo melhor, e qual foi o propósito que levou a Apple a desenvolvê-lo? E para onde vai a tecnologia a seguir?


O que isso significa Lidar ؟

uma palavra Lidar Uma abreviatura para "Light Detection and Ranging" que significa a detecção de luz e determinar a "distância" de alcance iluminando o alvo e fazendo a varredura com um feixe de laser, em seguida, retornando-o à fonte novamente, medindo esta reflexão e os tempos de retorno desses raios e comprimentos de onda para criar modelos XNUMXD digitais do alvo. Em milissegundos.

A técnica é usada Lidar Normalmente usado para criar mapas de alta resolução, também é usado em arqueologia, geografia, geologia, terremotos, florestas, atmosfera, altímetros, controle de carro sem motorista e muito mais.


A história da tecnologia Lidar

As raízes desta tecnologia remontam à década de 1930, quando o conceito básico do Lidar  Limitou-se ao uso de holofotes poderosos para explorar a Terra e a atmosfera. Desde então, tem sido amplamente utilizado em pesquisas atmosféricas e meteorológicas.

Mas o início do grande desenvolvimento desta tecnologia e sua disseminação foi em 1961, ou seja, logo após a invenção do laser, quando a Hughes Aircraft Corporation apresentou na época o primeiro sistema lidar-like dedicado a rastrear satélites, combinando laser- imagem focada com a capacidade de calcular distâncias medindo o tempo O retorno do sinal usando sensores apropriados e eletrônicos de aquisição de dados, era originalmente chamado de "Colidar", que é um acrônimo para "Coherent Light Detecting and Ranging", que é um derivado do termo "Radar ”.

No entanto, o LiDAR não atingiu a popularidade que merecia até vinte anos depois. Foi apenas durante a década de XNUMX, após a introdução do Sistema de Posicionamento Global (GPS), que ele se tornou um método popular para calcular medições geoespaciais precisas. Agora, o escopo dessa tecnologia se espalhou por muitos domínios.


Como lidar com o sensor de profundidade?

Lidar é um tipo de câmera Tempo de vooAlguns outros smartphones medem a profundidade com um único pulso de luz, enquanto o iPhone que usa esse tipo de tecnologia lidar envia ondas de pulsos de laser em uma rede de pontos infravermelhos, que são pulsos de luz invisíveis ao olho humano, mas você pode vê-los com uma câmera Para visão noturna, as distâncias variáveis ​​de um objeto na cena são calculadas. E esses pulsos de luz, juntamente com as informações coletadas pelo sistema, geram informações tridimensionais precisas da cena e do objeto alvo, então outros elementos, como o processador e o resto dos componentes, vêm por sua vez para coletar e analisar os dados e produzir o resultado final para trabalhar em toda a extensão.

LiDAR segue um princípio simples, emitindo luz laser em um objeto e calculando o tempo que leva para retornar ao sensor LiDAR. Dada a velocidade com que a luz viaja “cerca de 186000 milhas por segundo”, o processo preciso de medição de distância em LiDAR parece incrivelmente rápido.


Um sensor lidar não é o mesmo que dois sensores? ID do rosto ؟

É, mas com um alcance maior. A ideia é a mesma, já que a câmera TrueDepth no Face ID dispara uma série de lasers infravermelhos, mas tem um curto alcance e funciona a apenas alguns metros de distância. Enquanto os sensores lidar operam em um alcance de até 5 metros!


Um sensor lidar já está presente em muitas outras tecnologias

LiDAR é uma tecnologia onipresente. Eles são usados ​​em carros autônomos ou auxiliares. Eles são usados ​​em robôs e drones. Fones de ouvido AR como o HoloLens 2 têm uma tecnologia semelhante, definindo os espaços dos quartos antes de colocar objetos XNUMXD virtuais neles. A técnica lidar, conforme mencionado anteriormente, também tem uma longa história.

O antigo acessório de detecção de profundidade do Xbox da Microsoft era o Kinect, que também era uma câmera com um sensor de profundidade infravermelho. A Apple adquiriu a Prime Sense, a empresa que ajudou a criar a tecnologia Kinect, em 2013. Agora, temos a tecnologia TrueDepth, que faz a varredura do rosto, e o sensor LiDAR na câmera traseira do iPhone 12 Pro, que detecta mais profundidade.


A câmera do iPhone 12 Pro funciona melhor com o sensor lidar

Câmeras Time-Of-Flight em smartphones tendem a ser usadas para melhorar a precisão e a velocidade de foco, e o iPhone 12 Pro faz o mesmo, focando melhor e mais rápido em melhorar a pouca luz, até seis vezes mais do que em condições de pouca luz.

Melhor foco é uma vantagem, pois o iPhone 12 Pro pode adicionar mais dados de imagem graças à digitalização XNUMXD. Embora esse elemento ainda não tenha sido identificado, a câmera frontal TrueDepth que detecta profundidade foi usada de maneira semelhante com aplicativos, e desenvolvedores terceirizados podem mergulhar em algumas ideias usando essas novas tecnologias e é isso que veremos de fato.


Também beneficia a realidade aumentada tremendamente

O Lidar permite que o iPhone 12 Pro execute aplicativos de RA mais rapidamente e crie um mapa de cena rápido para adicionar mais detalhes. Muitas das atualizações de realidade aumentada no iOS 14 usam lidar para criar objetos virtuais e escondê-los atrás de objetos reais, e se trata de colocar objetos virtuais dentro de componentes de sala mais complexos com grande precisão.

Os desenvolvedores estão usando lidar para escanear casas e espaços e realizar varreduras que podem ser usadas não apenas em realidade aumentada, mas para salvar modelos de locais em formatos como CAD.

Ele foi testado em um jogo da Apple Arcade, Hot Lava, que na verdade usa lidar para limpar a sala e todos os seus obstáculos. E foi capaz de colocar objetos virtuais nas escadas e esconder objetos atrás de objetos realistas na sala.

Esperamos que mais aplicativos de RA comecem a adicionar suporte Lidar de forma mais profissional e vão além do que mencionamos.


Muitas empresas sonham com fones de ouvido que combinem objetos virtuais com coisas reais, pois adotarão óculos de realidade aumentada, nos quais Facebook, Qualcomm, Snapchat, Microsoft, Magic Leap e muito provavelmente Apple e outros estão trabalhando, contarão com a presença de avançados Mapas XNUMXD do mundo e a colocação de objetos virtuais neles.

Esses mapas XNUMXD agora são criados com scanners e equipamentos especiais, quase como a versão de digitalização global de veículos do Google Maps. Mas existe a possibilidade de que dispositivos especiais possam eventualmente ajudar as pessoas a coletar essas informações ou adicionar dados adicionais em trânsito.

Mais uma vez, fones de ouvido AR, como Magic Leap e HoloLens, fazem uma pré-varredura em seu ambiente antes de colocá-los, e a tecnologia AR equipada com lidar da Apple funciona da mesma maneira. Nesse sentido, o iPhone 12, 12 Pro e o iPad Pro são semelhantes aos fones de ouvido AR sem a parte do fone de ouvido. Isso, é claro, pode abrir caminho para a Apple criar seus próprios óculos.


A Apple não é a primeira a descobrir uma tecnologia como esta no telefone

O Google teve a mesma ideia quando o projeto Tango foi criado, e é voltado principalmente para tecnologias de realidade aumentada, e os protótipos iniciais do projeto Tango eram dispositivos móveis inteligentes “telefones e tablets” baseados no sistema Android que têm a propriedade de percepção espacial do ambiente em que o dispositivo está localizado, rastreando o movimento tridimensional e capturando a forma do ambiente circundante em tempo real, adicionando um sistema de visão avançado, processamento de imagem e sensores especializados, e foi usado apenas em dois telefones, incluindo o Lenovo Phab 2 Pro.

O avançado conjunto de câmeras também contém sensores infravermelhos e pode mapear salas, criar scans XNUMXD e mapas profundos de realidade aumentada e medir espaços internos. Esses telefones equipados com Tango duraram pouco e foram substituídos por algoritmos de visão computacional e inteligência artificial que detectavam a profundidade estimada por meio de câmeras sem a necessidade de adicionar sensores reais, como acontecia nos telefones Pixel do Google.

Com isso, o iPhone 12 Pro é quem reformulou a tecnologia Lidar, trabalhando para melhor fornecê-la e trazendo uma tecnologia que se estabeleceu há muito tempo e se estende a outras indústrias necessárias, e agora está sendo integrada aos carros autônomos , Fones de ouvido AR e muito mais.

O que você acha da tecnologia Lidar em telefones? É necessário? Você acha que isso levará a um grande salto na tecnologia e nos aplicativos de smartphones? Deixe-nos saber nos comentários.

المصادر:

mundo geoespacial | cnet | wikipedia

Artigos relacionados