Zarówno iPhone 12 Pro, jak i iPad Pro 2020 mają nowy czujnik, który dodaje głębokie skanowanie sceny w celu uzyskania lepszych zdjęć o nazwie Poradzić sobie, Ale przyszłość wskazuje na to, co jest poza tym, a Apple optymistycznie odnosi się do tej technologii i bardzo na niej polega, co jest zupełnie nową technologią ograniczoną do serii iPhone 12, w szczególności iPhone 12 Pro i iPhone 12 Pro Max. I czujnik Poradzić sobie Jest to czarna kropka w pobliżu obiektywu tylnego aparatu, mniej więcej tego samego rozmiaru co lampa błyskowa, i jest to nowy typ czujnika głębi, który może mieć znaczenie na wiele interesujących sposobów. Jest to termin, który w najbliższych dniach zaczniecie dużo słyszeć, więc poznajmy go dokładniej i jaki jest cel, który skłonił Apple do jego rozwinięcia? A gdzie technologia może pójść dalej?


co to znaczy Poradzić sobie ؟

słowo Poradzić sobie Skrót od „Light Detection and Ranging” oznaczający wykrywanie światła i określenie „odległości” zasięgu poprzez oświetlenie celu i zeskanowanie go wiązką laserową, a następnie powrót do źródła, a następnie pomiar tego odbicia i czasu powrotu tych promieni i długości fal do tworzenia trójwymiarowych cyfrowych modeli celu, a odbywa się to w ciągu milisekund.

Technika jest używana Poradzić sobie Powszechnie używany do tworzenia map o wysokiej rozdzielczości, jest również używany w archeologii, geografii, geologii, trzęsieniach ziemi, lasach, atmosferze, wysokościomierzach, sterowaniu samochodami bez kierowcy i nie tylko.


Historia technologii Poradzić sobie

Korzenie tej technologii sięgają lat trzydziestych XX wieku, kiedy to podstawowa koncepcja Poradzić sobie  Ograniczono się do użycia potężnych reflektorów do badania Ziemi i atmosfery. Od tego czasu był szeroko stosowany w badaniach atmosferycznych i meteorologicznych.

Ale początek wielkiego rozwoju tej technologii i jej rozpowszechnienia nastąpił w 1961 roku, czyli krótko po wynalezieniu lasera, kiedy to Hughes Aircraft Corporation zaprezentowała wówczas pierwszy system typu lidar, dedykowany do śledzenia satelitów, łączący laserowo- obrazowanie zogniskowane z możliwością obliczania odległości przez pomiar czasu Odbicie sygnału za pomocą odpowiednich czujników i elektroniki do akwizycji danych, pierwotnie nazywał się „Colidar”, co jest akronimem „Coherent Light Detecting and Ranging”, który jest pochodną terminu „Radar ”.

Jednak LiDAR nie osiągnął popularności, na jaką zasługiwał, dopiero dwadzieścia lat później. Dopiero w latach XNUMX. XX wieku, po wprowadzeniu Globalnego Systemu Pozycjonowania (GPS), stała się popularną metodą obliczania dokładnych pomiarów geoprzestrzennych. Obecnie zakres tej technologii rozprzestrzenił się na wiele dziedzin.


Jak działa lidar, aby wyczuć głębię?

Lidar to rodzaj aparatu Czas lotuNiektóre inne smartfony mierzą głębokość za pomocą pojedynczego impulsu światła, podczas gdy iPhone wykorzystujący tego typu technologię lidar wysyła fale impulsów laserowych do sieci punktów podczerwieni, które są impulsami światła niewidocznymi dla ludzkiego oka, ale można je zobaczyć. z kamerą W przypadku noktowizora obliczane są zmienne odległości obiektu w scenie. Te impulsy świetlne, wraz z informacjami zebranymi przez system, generują dokładne trójwymiarowe informacje o docelowej scenie i obiekcie, a następnie inne elementy, takie jak procesor i pozostałe komponenty, z kolei gromadzą i analizują dane i wyprowadzanie ostatecznego wyniku do pracy w pełnym zakresie.

LiDAR działa zgodnie z prostą zasadą, kierując światło lasera na obiekt i obliczając czas potrzebny na powrót do czujnika LiDAR. Biorąc pod uwagę prędkość, z jaką światło przemieszcza się „około 186000 XNUMX mil na sekundę”, proces precyzyjnego pomiaru odległości w LiDAR wydaje się niewiarygodnie szybki.


Czy czujnik lidar nie jest tym samym, co dwa czujniki? Identyfikator twarzy ؟

Tak, ale z większym zasięgiem. Pomysł jest taki sam, ponieważ kamera TrueDepth w Face ID strzela szeregiem laserów na podczerwień, ale ma krótki zasięg i działa tylko kilka stóp dalej. Podczas gdy czujniki lidar działają na odległość do 5 metrów!


Czujnik lidar jest już obecny w wielu innych technologiach

LiDAR to wszechobecna technologia. Stosowane są w samochodach samojezdnych lub pomocniczych. Stosowane są w robotach i dronach. Zestawy słuchawkowe AR, takie jak HoloLens 2, mają podobną technologię, definiując przestrzenie pomieszczeń przed umieszczeniem w nich wirtualnych obiektów XNUMXD. Technika lidar, jak wspomniano wcześniej, również ma bardzo długą historię.

Starym akcesorium Microsoft Xbox do wykrywania głębi był Kinect, który był również kamerą z czujnikiem głębokości na podczerwień. Firma Apple przejęła Prime Sense, firmę, która pomogła w stworzeniu technologii Kinect, w 2013 roku. Teraz mamy technologię TrueDepth, która skanuje twarz, oraz czujnik LiDAR w układzie tylnych kamer iPhone'a 12 Pro, który jeszcze bardziej wykrywa głębię.


Aparat iPhone'a 12 Pro działa lepiej z czujnikiem lidarowym

Kamery Time-Of-Flight na smartfonach są zwykle używane do poprawy dokładności i szybkości ustawiania ostrości, a iPhone 12 Pro robi to samo, koncentrując się lepiej i szybciej na poprawie słabego oświetlenia, nawet sześciokrotnie wyższego niż w warunkach słabego oświetlenia.

Lepsza ostrość to plus, ponieważ iPhone 12 Pro może dodać więcej danych obrazu dzięki skanowaniu XNUMXD. Chociaż ten element nie został jeszcze zidentyfikowany, przednia kamera TrueDepth, która wyczuwa głębię, została użyta w podobny sposób w aplikacjach, a programiści zewnętrzni mogą zagłębić się w niektóre pomysły przy użyciu tych nowych technologii i właśnie to zobaczymy.


Jest to również niezwykle korzystne dla rzeczywistości rozszerzonej

Lidar pozwala iPhone'owi 12 Pro szybciej uruchamiać aplikacje AR i tworzyć szybką mapę sceny, aby dodać więcej szczegółów. Wiele aktualizacji rzeczywistości rozszerzonej w iOS 14 wykorzystuje lidar do tworzenia wirtualnych obiektów i ukrywania ich za rzeczywistymi obiektami, a także do umieszczania wirtualnych obiektów w bardziej złożonych komponentach pokoju z dużą precyzją.

Programiści używają lidara do skanowania domów i przestrzeni oraz wykonywania skanów, których można używać nie tylko w rzeczywistości rozszerzonej, ale także do zapisywania modeli miejsc w formatach takich jak CAD.

Został przetestowany na grze Apple Arcade, Hot Lava, która faktycznie używa lidara do oczyszczenia pokoju i wszystkich jego przeszkód. Był w stanie umieszczać wirtualne obiekty na schodach i ukrywać je za realistycznymi przedmiotami w pokoju.

Spodziewamy się większej liczby aplikacji AR, które zaczną dodawać obsługę Lidar bardziej profesjonalnie i wykraczają poza to, o czym wspomnieliśmy.


Wiele firm marzy o słuchawkach, które łączą wirtualne obiekty z rzeczywistymi rzeczami, ponieważ przyjmą okulary rozszerzonej rzeczywistości, nad którymi Facebook, Qualcomm, Snapchat, Microsoft, Magic Leap, a najprawdopodobniej Apple i inni pracują, będą polegać na obecności zaawansowanych Mapy XNUMXD świata i umieszczanie na nich wirtualnych obiektów.

Te mapy XNUMXD są teraz tworzone za pomocą specjalnych skanerów i sprzętu, prawie tak samo, jak wersja Google Maps do skanowania pojazdów na całym świecie. Istnieje jednak możliwość, że specjalne urządzenia mogą ostatecznie pomóc ludziom w zbieraniu tych informacji lub dodawaniu dodatkowych danych w drodze.

Po raz kolejny słuchawki AR, takie jak Magic Leap i HoloLens, wstępnie skanują otoczenie przed włożeniem rzeczy, a technologia AR wyposażona w lidar firmy Apple działa w ten sam sposób. W tym sensie iPhone 12, 12 Pro i iPad Pro są podobne do słuchawek AR bez części słuchawkowej. To oczywiście może utorować drogę firmie Apple do stworzenia własnych okularów.


Apple nie jest pierwszym, który odkrywa taką technologię w telefonie

Google wpadł na ten sam pomysł, kiedy powstawał projekt Tango, a jego celem są głównie technologie rozszerzonej rzeczywistości, a początkowymi prototypami projektu Tango były inteligentne urządzenia mobilne „telefony i tablety” oparte na systemie Android, które mają właściwość percepcji przestrzennej środowiska, w którym znajduje się urządzenie poprzez śledzenie trójwymiarowego ruchu i uchwycenie kształtu otaczającego środowiska w czasie rzeczywistym, poprzez dodanie zaawansowanego systemu wizyjnego, przetwarzania obrazu oraz specjalistycznych czujników, i był używany tylko na dwóch telefonach, w tym Lenovo Phab 2 Pro.

Zaawansowany zestaw kamer zawiera również czujniki podczerwieni i może mapować pokoje, tworzyć skany XNUMXD i mapy w głębokiej rzeczywistości rozszerzonej oraz mierzyć przestrzenie wewnętrzne. Te telefony wyposażone w Tango były krótkotrwałe i zostały zastąpione algorytmami widzenia komputerowego i sztuczną inteligencją, które wykrywały szacowaną głębokość za pomocą kamer bez konieczności dodawania prawdziwych czujników, jak to miało miejsce w telefonach Pixel od Google.

Dzięki temu iPhone 12 Pro jest tym, który przeformułował technologię Lidar, pracując nad jej ulepszeniem i wprowadzając technologię, która została ustalona przez długi czas i została rozszerzona na inne niezbędne branże, a teraz jest integrowana z samochodami autonomicznymi. , Zestawy słuchawkowe AR i wiele więcej.

Co myślisz o technologii Lidar w telefonach? Czy to jest wymagane? Czy uważasz, że doprowadzi to do dużego skoku w technologii i aplikacjach smartfonów? Dajcie nam znać w komentarzach.

Źródła:

świat geoprzestrzenny | CNET | wikipedia

Powiązane artykuły