Sowohl das iPhone 12 Pro als auch das iPad Pro 2020 verfügen über einen neuen Sensor, der einen tiefen Scan der Szene für bessere Fotos ermöglicht LidarAber die Zukunft zeigt auf das, was darüber hinausgeht, und Apple ist optimistisch in Bezug auf diese Technologie und verlässt sich viel darauf. Dies ist eine völlig neue Technologie, die auf die iPhone 12-Serie beschränkt ist, insbesondere auf das iPhone 12 Pro und das iPhone 12 Pro Max. Und Sensor Lidar Es ist ein schwarzer Punkt in der Nähe des hinteren Kameraobjektivs, ungefähr so ​​groß wie der Blitz, und es ist eine neue Art von Tiefensensor, der auf viele interessante Arten einen Unterschied machen kann. Es ist ein Begriff, den Sie in den kommenden Tagen viel hören werden. Lassen Sie uns ihn also näher kennenlernen. Was ist der Grund, warum Apple ihn entwickelt hat? Und wohin könnte die Technologie als nächstes gehen?


Was bedeutet Lidar ؟

Flamme Lidar Eine Abkürzung für „Light Detection and Ranging“ (Lichterkennung und -entfernung) bedeutet die Erkennung von Licht und die Bestimmung des Bereichs „Entfernung“, indem das Ziel beleuchtet und mit einem Laserstrahl abgetastet, dann wieder zur Quelle zurückgeführt und dann diese Reflexion und die Rückkehrzeiten gemessen werden dieser Strahlen und Wellenlängen, um dreidimensionale digitale Modelle des Ziels zu erstellen, und dies erfolgt in Millisekunden.

Die Technik wird verwendet Lidar Es wird häufig zum Erstellen hochauflösender Karten verwendet und auch in den Bereichen Archäologie, Geographie, Geologie, Erdbeben, Wälder, Atmosphäre, Höhenmesser, fahrerlose Fahrzeugsteuerung und mehr.


Die Geschichte der Technologie Lidar

Die Wurzeln dieser Technologie reichen bis in die 1930er Jahre zurück, als das Grundkonzept der Lidar  Es beschränkte sich auf die Verwendung leistungsstarker Suchscheinwerfer zur Erkundung der Erde und der Atmosphäre. Dann wurde es seitdem ausgiebig in der atmosphärischen und meteorologischen Forschung eingesetzt.

Der Beginn der großen Entwicklung dieser Technologie und ihrer Verbreitung war jedoch 1961, dh kurz nach der Erfindung des Lasers, als die Hughes Aircraft Corporation zu dieser Zeit das erste Lidar-ähnliche System vorstellte, das der Verfolgung von Satelliten gewidmet war und Laser- kombinierte. Fokussierte Bildgebung mit der Fähigkeit, Entfernungen durch Messen der Zeit zu berechnen. Signalrückgabe unter Verwendung geeigneter Sensoren und Datenerfassungselektronik. Ursprünglich wurde sie als "Colidar" bezeichnet. Dies ist eine Abkürzung für "Coherent Light Detection and Ranging", eine Ableitung des Begriffs "Radar" ".

LiDAR erlangte jedoch erst zwanzig Jahre später die Popularität, die es verdient hatte. Erst in den XNUMXer Jahren nach der Einführung des Global Positioning System (GPS) wurde es zu einer beliebten Methode zur Berechnung genauer Geodatenmessungen. Der Umfang dieser Technologie hat sich nun auf viele Bereiche ausgeweitet.


Wie arbeitet Lidar, um die Tiefe zu erfassen?

Lidar ist eine Art Kamera FlugzeitEinige andere Smartphones messen die Tiefe mit einem einzigen Lichtimpuls, während das iPhone, das diese Art von Lidar-Technologie verwendet, Wellen von Laserimpulsen in ein Netzwerk von Infrarotpunkten sendet, die für das menschliche Auge unsichtbare Lichtimpulse sind, die Sie jedoch sehen können mit einer Kamera Für die Nachtsicht werden dann die variablen Entfernungen eines Objekts in der Szene berechnet. Und diese Lichtimpulse erzeugen zusammen mit den vom System gesammelten Informationen genaue dreidimensionale Informationen der Zielszene und des Zielobjekts, dann kommen andere Elemente wie der Prozessor und der Rest der Komponenten wiederum zum Sammeln und Analysieren der Daten und Ausgabe des Endergebnisses, um in vollem Umfang zu arbeiten.

LiDAR folgt einem einfachen Prinzip: Es strahlt Laserlicht auf ein Objekt und berechnet die Zeit, die benötigt wird, um zum LiDAR-Sensor zurückzukehren. Angesichts der Geschwindigkeit, mit der sich das Licht mit „ungefähr 186000 Meilen pro Sekunde“ fortbewegt, erscheint der genaue Entfernungsmessprozess über LiDAR unglaublich schnell.


Ist ein Lidar-Sensor nicht dasselbe wie zwei Sensoren? Gesicht ID ؟

Es ist, aber mit einer größeren Reichweite. Die Idee ist dieselbe, da die TrueDepth-Kamera in Face ID eine Reihe von Infrarotlasern abfeuert, jedoch eine kurze Reichweite hat und nur wenige Meter entfernt arbeitet. Während die Lidar-Sensoren in einer Reichweite von bis zu 5 Metern arbeiten!


Ein Lidar-Sensor ist bereits in vielen anderen Technologien vorhanden

LiDAR ist eine allgegenwärtige Technologie. Sie werden in selbstfahrenden oder Hilfsfahrzeugen eingesetzt. Sie werden in Robotern und Drohnen eingesetzt. AR-Headsets wie HoloLens 2 verfügen über eine ähnliche Technologie, bei der Raumräume definiert werden, bevor virtuelle XNUMXD-Objekte darin platziert werden. Die Lidar-Technik hat, wie bereits erwähnt, ebenfalls eine sehr lange Geschichte.

Das alte Xbox-Tiefenerkennungszubehör von Microsoft war Kinect, eine Kamera mit Infrarot-Tiefenerkennungsscan. Apple hat 2013 Prime Sense übernommen, das Unternehmen, das an der Entwicklung der Kinect-Technologie mitgewirkt hat. Jetzt haben wir die TrueDepth-Technologie, die das Gesicht scannt, und den LiDAR-Sensor im hinteren Kamera-Array des iPhone 12 Pro, der die Tiefe weiter erkennt.


Die iPhone 12 Pro Kamera funktioniert besser mit dem Lidar-Sensor

Time-Of-Flight-Kameras auf Smartphones werden in der Regel verwendet, um die Genauigkeit und Fokusgeschwindigkeit zu verbessern, und das iPhone 12 Pro macht das Gleiche und fokussiert besser und schneller auf die Verbesserung bei schlechten Lichtverhältnissen, bis zu sechsmal so viel wie bei schlechten Lichtverhältnissen.

Ein besserer Fokus ist ein Plus, da das iPhone 12 Pro dank XNUMXD-Scannen mehr Bilddaten hinzufügen kann. Obwohl dieses Element noch nicht identifiziert wurde, wurde die vordere TrueDepth-Kamera, die die Tiefe erfasst, auf ähnliche Weise für Anwendungen verwendet, und Entwickler von Drittanbietern können mithilfe dieser neuen Technologien in einige Ideen eintauchen, und dies werden wir tatsächlich sehen.


Es kommt auch der erweiterten Realität enorm zugute

Mit Lidar kann das iPhone 12 Pro AR-Apps schneller ausführen und eine schnelle Szenenkarte erstellen, um weitere Details hinzuzufügen. Viele der Augmented-Reality-Updates in iOS 14 verwenden Lidar, um virtuelle Objekte zu erstellen und hinter realen Objekten zu verbergen. Virtuelle Objekte werden mit großer Präzision in komplexeren Raumkomponenten platziert.

Entwickler verwenden Lidar, um Häuser und Räume zu scannen und Scans durchzuführen, die nicht nur in Augmented Reality verwendet werden können, sondern auch um Platzmodelle in Formaten wie CAD zu speichern.

Es wurde auf einem Apple Arcade-Spiel, Hot Lava, getestet, das tatsächlich Lidar verwendet, um den Raum und alle seine Hindernisse zu beseitigen. Und konnte virtuelle Objekte auf der Treppe platzieren und Objekte hinter realistischen Objekten im Raum verstecken.

Wir erwarten mehr AR-Apps, die den Lidar-Support professioneller hinzufügen und über das hinausgehen, was wir erwähnt haben.


Viele Unternehmen träumen von Kopfhörern, die virtuelle Objekte mit realen Dingen kombinieren, da sie Augmented-Reality-Brillen einsetzen, an denen Facebook, Qualcomm, Snapchat, Microsoft, Magic Leap und höchstwahrscheinlich Apple und andere arbeiten, die auf die Präsenz von Advanced angewiesen sind XNUMXD-Karten der Welt und Platzieren virtueller Objekte darauf.

Diese XNUMXD-Karten werden jetzt mit speziellen Scannern und Geräten erstellt, fast genauso wie die globale Fahrzeug-Scan-Version von Google Maps. Es besteht jedoch die Möglichkeit, dass spezielle Geräte den Benutzern helfen, diese Informationen zu sammeln oder unterwegs zusätzliche Daten hinzuzufügen.

Erneut scannen AR-Kopfhörer wie Magic Leap und HoloLens Ihre Umgebung vor dem Einsetzen vorab, und die mit Lidar ausgestattete AR-Technologie von Apple funktioniert auf die gleiche Weise. In diesem Sinne ähneln das iPhone 12, 12 Pro und iPad Pro AR-Kopfhörern ohne Kopfhörerteil. Dies könnte natürlich den Weg für Apple ebnen, schließlich eine eigene Brille herzustellen.


Apple ist nicht der erste, der eine solche Technologie auf dem Telefon entdeckt

Google hatte die gleiche Idee, als das Tango-Projekt erstellt wurde, und es zielt hauptsächlich auf Augmented-Reality-Technologien ab. Die ersten Prototypen des Tango-Projekts waren intelligente mobile Geräte, „Telefone und Tablets“, die auf dem Android-System basieren und die Eigenschaft der räumlichen Wahrnehmung haben der Umgebung, in der sich das Gerät befindet, durch Verfolgung Die dreidimensionale Bewegung und Erfassung der Form der Umgebung in Echtzeit durch Hinzufügen eines fortschrittlichen Bildverarbeitungssystems, Bildverarbeitung und spezialisierter Sensoren, die nur auf zwei Telefonen verwendet wurden, einschließlich das Lenovo Phab 2 Pro.

Die fortschrittliche Kamerasuite enthält auch Infrarotsensoren und kann Räume kartieren, XNUMXD-Scans und Deep Augmented Reality-Karten erstellen und Innenräume messen. Diese mit Tango ausgestatteten Telefone waren von kurzer Dauer und wurden durch Computer-Vision-Algorithmen und künstliche Intelligenz ersetzt, die die geschätzte Tiefe durch Kameras erfassten, ohne dass echte Sensoren hinzugefügt werden mussten, wie dies bei den Pixel-Telefonen von Google der Fall war.

Damit ist das iPhone 12 Pro derjenige, der die Lidar-Technologie neu formuliert, daran arbeitet, sie besser bereitzustellen und eine Technologie zu entwickeln, die lange Zeit etabliert und auf andere wichtige Branchen ausgedehnt wurde. Jetzt wird sie in selbstfahrende Autos integriert , AR-Headsets und vieles mehr.

Was halten Sie von der Lidar-Technologie in Telefonen? Ist es erforderlich? Glauben Sie, dass dies zu einem großen Sprung in der Smartphone-Technologie und -Anwendungen führen wird? Lass es uns in den Kommentaren wissen.

Quellen:

Geospatialworld | cnet | wikipedia

Verwandte Artikel