Zowel iPhone 12 Pro als iPad Pro 2020 hebben een nieuwe sensor die een diepe scènescan toevoegt om betere foto's te noemen lidar, Maar de toekomst wijst op wat verder gaat, en Apple is optimistisch over deze technologie en vertrouwt er veel op, een volledig nieuwe technologie die beperkt is tot de iPhone 12-serie, met name de iPhone 12 Pro en iPhone 12 Pro Max. En sensor lidar Het is een zwarte stip bij de achterste cameralens, ongeveer even groot als de flitser, en het is een nieuw type dieptesensor die op veel interessante manieren een verschil kan maken. Het is een term die je de komende dagen veel zult gaan horen, dus laten we hem beter leren kennen, en wat is het doel dat Apple ertoe bracht hem te ontwikkelen? En waar kan de technologie nu naartoe?


wat betekent het lidar ؟

een woord lidar Een afkorting voor 'Light Detection and Ranging', wat betekent dat het licht wordt gedetecteerd en het bereik 'afstand' wordt bepaald door het doel te verlichten en te scannen met een laserstraal, het vervolgens weer terug te sturen naar de bron en vervolgens deze reflectie en de tijden van terugkeer te meten van die stralen en golflengten om digitale XNUMXD-modellen van het doel te maken. In milliseconden.

De techniek wordt gebruikt lidar Het wordt veel gebruikt voor het maken van kaarten met een hoge resolutie, maar wordt ook gebruikt in archeologie, geografie, geologie, aardbevingen, bossen, de atmosfeer, hoogtemeters, autobesturing zonder bestuurder en meer.


De geschiedenis van de technologie lidar

De wortels van deze technologie gaan terug tot de jaren 1930, toen het basisconcept van de lidar  Het was beperkt tot het gebruik van krachtige zoeklichten om de aarde en de atmosfeer te verkennen. Daarna is het sindsdien op grote schaal gebruikt in atmosferisch en meteorologisch onderzoek.

Maar het begin van de grote ontwikkeling van deze technologie en de verspreiding ervan was in 1961, dat wil zeggen, kort na de uitvinding van de laser, toen Hughes Aircraft Corporation destijds het eerste lidar-achtige systeem presenteerde dat was bedoeld voor het volgen van satellieten, waarbij laser- gerichte beeldvorming met de mogelijkheid om afstanden te berekenen door tijd te meten Signaalterugkeer met behulp van geschikte sensoren en data-acquisitie-elektronica. Oorspronkelijk heette het "Colidar", wat een afkorting is van Coherent Light Detecting and Ranging, wat is afgeleid van de term "Radar".

LiDAR kreeg echter pas twintig jaar later de populariteit die het verdiende. Pas in de jaren tachtig, na de introductie van het Global Positioning System (GPS), werd het een populaire methode voor het berekenen van nauwkeurige geospatiale metingen. Nu heeft de reikwijdte van die technologie zich over veel domeinen verspreid.


Hoe werkt lidar om de diepte te voelen?

Lidar is een soort camera VliegtijdSommige andere smartphones meten diepte met een enkele lichtpuls, terwijl de iPhone die dit type lidartechnologie gebruikt, golven van laserpulsen naar een netwerk van infraroodpunten stuurt, dit zijn lichtpulsen die onzichtbaar zijn voor het menselijk oog, maar je kunt ze wel zien. met een camera Voor nachtzicht worden de variabele afstanden van een object in de scène berekend. En deze lichtpulsen genereren, samen met de informatie die door het systeem wordt verzameld, nauwkeurige driedimensionale informatie van de doelscène en het object, waarna andere elementen zoals de processor en de rest van de componenten op hun beurt de gegevens verzamelen en analyseren. om het uiteindelijke resultaat optimaal te laten werken.

LiDAR volgt een eenvoudig principe, waarbij laserlicht op een object wordt uitgestraald en de tijd wordt berekend die nodig is om terug te keren naar de LiDAR-sensor. Gezien de snelheid waarmee licht "ongeveer 186000 mijl per seconde" aflegt, lijkt het nauwkeurige afstandsmeetproces via LiDAR ongelooflijk snel.


Is een lidarsensor niet hetzelfde als een sensor? Face ID ؟

Het is, maar met een groter bereik. Het idee is hetzelfde, want de TrueDepth-camera in Face ID vuurt een reeks infraroodlasers af, maar heeft een klein bereik en werkt maar een paar meter verderop. Terwijl de lidarsensoren werken tot een bereik van 5 meter!


In veel andere technologieën is een lidarsensor al aanwezig

LiDAR is een alomtegenwoordige technologie. Ze worden gebruikt in zelfrijdende of hulpauto's. Ze worden gebruikt in robots en drones. AR-headsets zoals HoloLens 2 hebben een vergelijkbare technologie en definiëren kamerruimten voordat er virtuele XNUMXD-objecten in worden geplaatst. De lidar-techniek heeft, zoals eerder vermeld, ook een zeer lange geschiedenis.

Het oude Xbox-dieptesensoraccessoire van Microsoft was Kinect, dat ook een camera was met een infrarood-dieptesensor. Apple nam in 2013 Prime Sense over, het bedrijf dat hielp bij het maken van de Kinect-technologie. Nu hebben we de TrueDepth-technologie die het gezicht scant, en de LiDAR-sensor in de achteruitrijcamera van de iPhone 12 Pro die de diepte nog meer detecteert.


De iPhone 12 Pro camera werkt beter met de lidarsensor

Time-Of-Flight-camera's op smartphones worden meestal gebruikt om de nauwkeurigheid en focussnelheid te verbeteren, en de iPhone 12 Pro doet hetzelfde door beter en sneller scherp te stellen op het verbeteren van omstandigheden bij weinig licht, tot wel zes keer die van omstandigheden met weinig licht.

Betere focus is een pluspunt, aangezien de iPhone 12 Pro meer beeldgegevens kan toevoegen dankzij XNUMXD-scannen. Hoewel dit element nog niet is geïdentificeerd, is de TrueDepth-camera aan de voorkant die diepte detecteert, op een vergelijkbare manier gebruikt met applicaties, en externe ontwikkelaars kunnen met deze nieuwe technologieën op ideeën duiken en dit is wat we daadwerkelijk zullen zien.


Het profiteert ook enorm van augmented reality

Met Lidar kan iPhone 12 Pro AR-apps sneller uitvoeren en een snelle scènemap maken om meer details toe te voegen. Veel van de augmented reality-updates in iOS 14 maken gebruik van lidar om virtuele objecten te maken en deze achter echte objecten te verbergen, en het gaat erom virtuele objecten met grote precisie in complexere kamercomponenten te plaatsen.

Ontwikkelaars gebruiken lidar om huizen en ruimtes te scannen en scans uit te voeren die niet alleen in augmented reality kunnen worden gebruikt, maar ook om plaatsmodellen op te slaan in formaten zoals CAD.

Het is getest op een Apple Arcade-spel, Hot Lava, dat daadwerkelijk lidar gebruikt om de kamer en al zijn hindernissen vrij te maken. En was in staat om virtuele objecten op de trap te plaatsen en objecten achter realistische objecten in de kamer te verbergen.

We verwachten meer AR-apps die Lidar-ondersteuning professioneler gaan toevoegen en verder gaan dan wat we noemden.


Veel bedrijven dromen van koptelefoons die virtuele objecten combineren met echte dingen, aangezien ze een augmented reality-bril zullen gebruiken, waar Facebook, Qualcomm, Snapchat, Microsoft, Magic Leap en hoogstwaarschijnlijk Apple en anderen aan werken, zullen vertrouwen op de aanwezigheid van geavanceerde XNUMXD-kaarten van de wereld en het plaatsen van virtuele objecten erop.

Deze XNUMXD-kaarten worden nu gemaakt met speciale scanners en apparatuur, bijna hetzelfde als de wereldwijde voertuigscanversie van Google Maps. Maar het is mogelijk dat speciale apparaten mensen uiteindelijk kunnen helpen deze informatie te verzamelen of onderweg aanvullende gegevens toe te voegen.

Nogmaals, AR-hoofdtelefoons zoals Magic Leap en HoloLens scannen vooraf je omgeving voordat ze dingen erin doen, en Apple's met lidar uitgeruste AR-technologie werkt op dezelfde manier. In die zin lijken de iPhone 12, 12 Pro en iPad Pro op AR-hoofdtelefoons zonder het hoofdtelefoongedeelte. Dit zou natuurlijk de weg kunnen banen voor Apple om uiteindelijk zijn eigen bril te maken.


Apple is niet de eerste die dit soort technologie aan de telefoon ontdekt

Google had hetzelfde idee toen het Tango-project werd gemaakt, en het is voornamelijk gericht op augmented reality-technologieën. De eerste prototypes van het Tango-project waren slimme mobiele apparaten, 'telefoons en tablets' op basis van het Android-systeem dat de ruimtelijke perceptie van de omgeving waarin het apparaat zich bevindt door de driedimensionale beweging te volgen en de vorm van de omgeving in realtime vast te leggen door een geavanceerd vision-systeem, beeldverwerking en gespecialiseerde sensoren toe te voegen, en werd alleen gebruikt op twee telefoons, waaronder de Lenovo Phab 2 Pro.

De geavanceerde camerasuite bevat ook infraroodsensoren en kan kamers in kaart brengen, XNUMXD-scans en diepe augmented reality-kaarten maken en binnenruimtes meten. Deze met Tango uitgeruste telefoons waren van korte duur en werden vervangen door computervisie-algoritmen en kunstmatige intelligentie die de geschatte diepte via camera's detecteerden zonder dat er echte sensoren nodig waren, zoals gebeurde in de Pixel-telefoons van Google.

Hiermee is de iPhone 12 Pro degene die de Lidar-technologie opnieuw heeft geformuleerd, eraan werkt om deze beter te bieden en een technologie te brengen die al lang bestaat en is uitgebreid naar andere noodzakelijke industrieën, en nu wordt deze geïntegreerd in zelfrijdende auto's. , AR-headsets en nog veel meer.

Wat vind je van de Lidar-technologie in telefoons? Is het vereist? Denk je dat dit zal leiden tot een grote sprong voorwaarts in smartphonetechnologie en -toepassingen? Laat het ons weten in de comments.

Bronnen:

georuimtelijke wereld | cnet | wikipedia

Gerelateerde artikelen