reiboot

Sia iPhone 12 Pro che iPad Pro 2020 hanno un nuovo sensore che aggiunge una scansione profonda della scena per foto migliori chiamate lidar, Ma il futuro indica cosa c'è oltre, e Apple è ottimista su questa tecnologia e fa molto affidamento su di essa, che è una tecnologia completamente nuova limitata alla serie iPhone 12, in particolare iPhone 12 Pro e iPhone 12 Pro Max. E sensore lidar È un punto nero vicino all'obiettivo della fotocamera posteriore, circa delle stesse dimensioni del flash, ed è un nuovo tipo di sensore di profondità che può fare la differenza in molti modi interessanti. È un termine che inizierai a sentire molto nei prossimi giorni, quindi conosciamolo di più, e qual è lo scopo che ha spinto Apple a svilupparlo? E dove potrebbe andare la tecnologia dopo?


cosa significa lidar ؟

una parola lidar Abbreviazione di "Light Detection and Ranging" che indica il rilevamento della luce e la determinazione della distanza "distanza" illuminando il bersaglio e scansionandolo con un raggio laser, quindi riportandolo nuovamente alla sorgente, quindi misurando questa riflessione ei tempi di ritorno di quei raggi e lunghezze d'onda per creare modelli XNUMXD digitali del target in millisecondi.

La tecnica è usata lidar Comunemente utilizzato per la creazione di mappe ad alta risoluzione, viene utilizzato anche in archeologia, geografia, geologia, terremoti, foreste, atmosfera, altimetri, controllo di auto senza conducente e altro ancora.


La storia della tecnologia lidar

Le radici di questa tecnologia risalgono agli anni '1930, quando il concetto di base del lidar  Era limitato all'uso di potenti proiettori per esplorare la Terra e l'atmosfera. Da allora è stato ampiamente utilizzato nella ricerca atmosferica e meteorologica.

Ma l'inizio del grande sviluppo di questa tecnologia e la sua diffusione fu nel 1961, cioè poco dopo l'invenzione del laser, poiché Hughes Aircraft Corporation presentò a quel tempo il primo sistema di tipo lidar dedicato al tracciamento dei satelliti, combinando laser- imaging focalizzato con la capacità di calcolare le distanze misurando il tempo Ritorno del segnale utilizzando sensori appropriati ed elettronica di acquisizione dati, originariamente era chiamato "Colidar" che è un acronimo di "Coherent Light Detecting and Ranging", che è un derivato del termine "Radar ".

Tuttavia, LiDAR non ha raggiunto la popolarità che meritava fino a vent'anni dopo. È stato solo negli anni 'XNUMX, dopo l'introduzione del Global Positioning System (GPS), che è diventato un metodo popolare per il calcolo di misurazioni geospaziali accurate. Ora, l'ambito di tale tecnologia si è diffuso in molti domini.


Come funziona il lidar per percepire la profondità?

Lidar è un tipo di fotocamera Tempo di voloAlcuni altri smartphone misurano la profondità con un singolo impulso di luce, mentre l'iPhone che utilizza questo tipo di tecnologia lidar invia onde di impulsi laser in una rete di punti infrarossi, che sono impulsi di luce invisibili all'occhio umano, ma puoi vederli con una telecamera Per la visione notturna, vengono calcolate le distanze variabili di un oggetto nella scena. E questi impulsi luminosi, insieme alle informazioni raccolte dal sistema, generano informazioni tridimensionali accurate della scena e dell'oggetto target, quindi altri elementi come il processore e il resto dei componenti vengono a loro volta per raccogliere e analizzare i dati e produrre il risultato finale per lavorare al massimo.

LiDAR segue un semplice principio, emettendo luce laser su un oggetto e calcolando il tempo necessario per tornare al sensore LiDAR. Data la velocità alla quale la luce viaggia "circa 186000 miglia al secondo", il preciso processo di misurazione della distanza attraverso LiDAR appare incredibilmente veloce.


Un sensore lidar non è uguale a due sensori? Face ID ؟

Lo è, ma con un raggio d'azione più lungo. L'idea è la stessa, poiché la fotocamera TrueDepth in Face ID spara una serie di laser a infrarossi, ma ha un raggio corto e funziona solo a pochi metri di distanza. Mentre i sensori lidar funzionano fino a un raggio di 5 metri!


Un sensore lidar è già presente in molte altre tecnologie

LiDAR è una tecnologia onnipresente. Sono utilizzati in auto a guida autonoma o ausiliarie. Sono utilizzati in robot e droni. Le cuffie AR come HoloLens 2 hanno una tecnologia simile, che definisce gli spazi della stanza prima di posizionare oggetti XNUMXD virtuali al loro interno. La tecnologia Lidar, come accennato in precedenza, ha anche una storia molto lunga.

Il vecchio accessorio di rilevamento della profondità di Microsoft per Xbox era Kinect, che era anche una fotocamera con una scansione di rilevamento della profondità a infrarossi. Apple ha acquisito Prime Sense, la società che ha contribuito a creare la tecnologia Kinect, nel 2013. Ora abbiamo la tecnologia TrueDepth che scansiona il viso e il sensore LiDAR nella matrice della fotocamera posteriore dell'iPhone 12 Pro che rileva ancora di più la profondità.


La fotocamera dell'iPhone 12 Pro funziona meglio con il sensore lidar

Le fotocamere Time-Of-Flight sugli smartphone tendono ad essere utilizzate per migliorare la precisione e la velocità di messa a fuoco, e l'iPhone 12 Pro fa lo stesso, concentrandosi meglio e più velocemente sul miglioramento della scarsa illuminazione, fino a sei volte quella delle condizioni di scarsa illuminazione.

Una migliore messa a fuoco è un vantaggio, poiché iPhone 12 Pro può aggiungere più dati di immagine grazie alla scansione XNUMXD. Sebbene questo elemento non sia stato ancora identificato, la fotocamera TrueDepth anteriore che rileva la profondità è stata utilizzata in modo simile con le applicazioni e gli sviluppatori di terze parti possono immergersi in alcune idee utilizzando queste nuove tecnologie e questo è ciò che vedremo effettivamente.


Inoltre avvantaggia enormemente la realtà aumentata

Lidar consente a iPhone 12 Pro di eseguire app AR più rapidamente e di creare una rapida mappa della scena per aggiungere ulteriori dettagli. Gran parte degli aggiornamenti della realtà aumentata in iOS 14 fanno uso di lidar per creare oggetti virtuali e nasconderli dietro oggetti reali, e si tratta di posizionare oggetti virtuali all'interno di componenti della stanza più complessi con grande precisione.

Gli sviluppatori utilizzano Lidar per scansionare case e spazi ed eseguire scansioni che possono essere utilizzate non solo nella realtà aumentata, ma per salvare modelli di luogo in formati come CAD.

È stato testato su un gioco Apple Arcade, Hot Lava, che in realtà utilizza il lidar per liberare la stanza e tutti i suoi ostacoli. Ed è stato in grado di posizionare oggetti virtuali sulle scale e nascondere oggetti dietro oggetti realistici nella stanza.

Ci aspettiamo più app AR che inizieranno ad aggiungere il supporto Lidar in modo più professionale e andranno oltre ciò che abbiamo menzionato.


Molte aziende sognano cuffie che combinano oggetti virtuali con cose reali, in quanto adotteranno occhiali per realtà aumentata, su cui Facebook, Qualcomm, Snapchat, Microsoft, Magic Leap e molto probabilmente Apple e altri stanno lavorando, faranno affidamento sulla presenza di avanzati. Mappe XNUMXD del mondo e posizionamento di oggetti virtuali su di esse.

Queste mappe XNUMXD vengono ora create con scanner e attrezzature speciali, quasi la stessa della versione di scansione globale dei veicoli di Google Maps. Ma c'è la possibilità che dispositivi speciali possano eventualmente aiutare le persone a raccogliere queste informazioni o aggiungere dati aggiuntivi in ​​movimento.

Ancora una volta, le cuffie AR come Magic Leap e HoloLens eseguono la scansione preliminare dell'ambiente prima di inserire le cose e la tecnologia AR dotata di lidar di Apple funziona allo stesso modo. In questo senso, iPhone 12, 12 Pro e iPad Pro sono simili alle cuffie AR senza la parte delle cuffie. Questo, ovviamente, potrebbe aprire la strada ad Apple per creare i propri occhiali.


Apple non è la prima a scoprire una tecnologia come questa sul telefono

Google ha avuto la stessa idea quando è stato creato il progetto Tango, che si rivolge principalmente alle tecnologie di realtà aumentata, ei prototipi iniziali del progetto Tango erano dispositivi mobili intelligenti "telefoni e tablet" basati sul sistema Android che hanno la proprietà della percezione spaziale dell'ambiente in cui si trova il dispositivo tracciando il movimento tridimensionale e catturando la forma dell'ambiente circostante in tempo reale, aggiungendo un sistema di visione avanzato, elaborazione di immagini e sensori specializzati, ed è stato utilizzato solo su due telefoni, incluso il Lenovo Phab 2 Pro.

La suite di telecamere avanzate contiene anche sensori a infrarossi e può mappare stanze, creare scansioni XNUMXD e mappe di realtà aumentata in profondità e misurare gli spazi interni. Questi telefoni dotati di Tango erano di breve durata e sono stati sostituiti da algoritmi di visione artificiale e intelligenza artificiale che hanno rilevato la profondità stimata attraverso le telecamere senza la necessità di aggiungere sensori reali, come è successo nei telefoni Pixel di Google.

Con questo, l'iPhone 12 Pro è colui che ha riformulato la tecnologia Lidar, lavorando per fornirla al meglio e portando una tecnologia che è stata consolidata da molto tempo ed estesa ad altri settori necessari, e ora viene integrata nelle auto a guida autonoma , Cuffie AR e molto altro ancora.

Cosa ne pensate della tecnologia Lidar nei telefoni? È necessario? Pensi che porterà a un grande balzo in avanti nella tecnologia e nelle applicazioni degli smartphone? Fateci sapere nei commenti.

Risorse:

mondo geospaziale | cnet | wikipedia

Articoli correlati