매년 Apple이 컨퍼런스에서 업데이트 할 내용과 업데이트하지 않을 내용에 대한 논쟁이 있습니다. 그러나 일부 측면은 일정하게 유지되므로 Apple이 모든 회의에서 프로세서를 업데이트한다는 것을 이제 확실하게 알고 있습니다. 물론 애플이 카메라를 업데이트하고 있고 치열한 경쟁으로 인해 기대되는 행사 다. 구글 픽셀 기기, 삼성 기기, 심지어 화웨이와의 치열한 경쟁 속에서 애플이 카메라의 품질을 제어 할 수 있었던 시대는 지났다. Apple이 올해 경쟁에서 성공할까요?

기어

아마도 우리는 Apple이 대체 할 수없는 하드웨어를 제조하기 때문에 하드웨어 영역에서 다가오는 기본적인 Apple 변화에 익숙 할 것입니다. 그리고 일반적으로 카메라 하드웨어와 관련된 업데이트를 두 개 이상 찾습니다. 올해 애플의 하드웨어는 저를 놀라게했습니다. 실제로 많은 하드웨어를 업데이트하지는 않았지만 iPhone 5s 이후 처음으로 픽셀 수가 아니라 카메라 센서의 크기를 늘 렸기 때문에 갱신 한 것이 중요합니다. -iPhone 12s 이후 사용 된 픽셀 크기 인 iPhone-iPhone X에 사용 된 1.4 마이크론 대신 1.22 마이크론에 해당하는 더 큰 픽셀 크기를 특징으로하는 메가 픽셀 센서. 또한 Apple이 새로운 픽셀 크기에 맞게 렌즈 속성을 변경했을 가능성이 높습니다.
애플은 또한 플래시가 "더 밝아졌지만"추가 정보없이 전면 카메라는 새로운 비디오 설치를 제외하고는 아무런 변화가 없다고 말합니다.
카메라 하드웨어를 넘어서

우리는 카메라 하드웨어의 새로운 점을 알고 있지만 올해의 Apple 기기는 AI 지역에서 가장 밝게 빛나고 있습니다. 7 나노 아키텍처의 새로운 프로세서가 전화의 신경망 칩에 분명히 초점을 맞추고 있기 때문에, 신경망 칩에 이제 8 개의 코어가 있고 당 XNUMX 조 처리 작업을 수행 할 수 있기 때문에 Apple의 작업 대부분이 여기에 집중된 것 같습니다. 둘째. 이 진보는 현재 증강 현실과 카메라에 관심이 있으며, 여기에서 인공 지능을 활용하여 이미지를 개선하는 방법을 알고 있습니다. 그리고 그것은 미 무지와 같은 귀여운 추가 물만을위한 것이 아닙니다. 그렇다면 올해 하드웨어와 시스템의 개선으로 무엇을 얻었습니까?
더 스마트 한 카메라

일반적으로 카메라는 얼굴, 눈의 특징 및 이미지 앞과 뒤의 요소와 같은 기타 세부 사항을 분석하기 위해 이미지를 계산합니다. 또한 덜 집중해야하는 요소에 비해 집중해야하는 요소도 있습니다. 이것은 카메라가 적목 현상을 취소하고 이미지의 중요한 요소 사이의 경계를 구분하는 등 이미지를 이해하고 개선하는 데 도움이되는 더 많은 정보를 가지고 있기 때문에 새로운 iPhone의 장점입니다. 카메라는 또한 이미지를 더 잘 분할하여 이러한 부분을 비교하고 더 나은 이미지 깊이 감을 생성 할 수 있습니다 (일반 사진에서도 우리에 대해 이야기하는 것은 보케 효과에 관한 것이 아닙니다).
또한 스마트 HDR

HDR은 꽤 오랫동안 휴대폰 카메라에 존재 해 왔으며 이는 카메라가 여러 장의 사진을 찍고 더 나은 사진을 얻기 위해 함께 병합한다는 것을 의미합니다. 여기에서 올해 Apple 빌드를 시작하고 Google이 Pixel 2 장치 및 HDR + 모드로 수행 한 작업과 다소 유사합니다. Google 장치는 다른 노출 (노출은 입력 할 수있는 빛의 양)으로 많은 사진을 촬영 한 다음 인공 지능을 사용하는 최고의 디테일과이 기술의 픽셀은 여러 저 노출 사진을 캡처합니다. Apple의 경우 그림자의 세부 사항을 더 잘 저장하고 출력하기 위해 노출이 적은 이미지와 노출 과다가 특징 인 이미지를 사용합니다.
즉석 사진

애플은 종종 카메라 셔터 속도와 사진 촬영 속도를 자랑 해 왔지만 항상 약간의 지연이 있습니다. 이 지연은 빠른 사진 촬영에 중독 된 경우 알 수 있습니다. 그렇다면 사진이 즉석 화되어 올해 꿈이 이뤄질 수있다. 카메라는 항상 사진을 찍지 만, 사진 버튼을 누를 때까지 항상 직접 찍어 스캔 한 사진이다. 지워지지 않고 저장됩니다. 이것이 Apple이 XNUMX과 같은 버튼을 누른 후 이미지 저장을 지연시킬 수 있었던 방법입니다.
가변 깊이

지난 해부 터 애플의 카메라는 심도 나 보케 효과에서 최고로 평가 받고 있으며, 픽셀 폰보다 훨씬 낫다. 왜냐하면 결국 픽셀은 시스템에만 의존하고 애플은 두 개의 개별 렌즈를 사용하기 때문에 더 나은 결과를 제공하기 때문이다. 그러나 올해 새로운 시스템 특성 덕분에 Apple은 사진 작가가 촬영 한 "후"이미지의 깊이와 효과의 강도를 변경할 수 있도록 결정했습니다. 비슷한 기능이 삼성이나 일부 아이폰 애플리케이션에도 존재했지만,이 방법은 효과로만 바꾼다. 아이폰 XS의 경우 회의에서 휴대폰 실험자들은 여러 차원의 깊이를 변경해야한다고 전했다. 카메라 렌즈를 사용하여 실제 깊이를 변경하는 것과 같은 방식으로 이미지에서 다른 수준으로 변경됩니다. 물론 장치가 판매 될 때까지 그리고 이번까지 완전한 비교를 할 수 없습니다. 기다려야 함.
저조도 및 액션 장면에서 더 좋습니다.

카메라의 픽셀이 커 졌으므로 더 많은 빛을 포착하고 있습니다. 이것은 저조도 조건에서 사진을 크게 향상시킬뿐만 아니라 스마트 HDR 기술, 인공 지능 조정 및 카메라의 셔터 속도 모두가 움직이는 피사체를 촬영할 때 더 좋고 안정적인 사진을 허용합니다.

Google Pixel은 어떻습니까?
![]()
구글은 최초의 픽셀 장치를 출시 한 이래로 자사의 우수성은 시스템을 개발하기 위해 수억 명의 사용자 데이터에 액세스 할 수있는 거대한 서버가 지원하는 인공 지능이라는 점을 알고 있으며, 이것이 바로 구글이 한 일입니다. Pixel 2 카메라에서는 카메라 하드웨어와 특수 칩의 품질에도 불구하고 대부분의 칭찬은 전화기의 지능이 최상의 방식으로 이미지를 처리하는 방식에서 비롯됩니다. 올해를 위해 개발을 시도하고 있습니다. 2 곧 예상되는 Pixel 3와 경쟁하기 위해 여기에 있습니다. Google은 종종 사용하면서 배우는만큼 시스템이 무제한이라고 말했습니다. 구글이 2 년 전에 발표 한 픽셀 XNUMX와 같은 인텔리전스 시스템을 개발했다고해도 이번에는 새 폰에 사용하면 더 좋을 것이다. 또한 구글은 보조 인공 지능의 힘을 높이고 아이폰을 물리 칠 수있는 이미지를 만들기 위해 카메라 하드웨어에 기능을 추가 할 수도있다.
마지막으로 Google 생태계는 거대한 서버를 통해 영구적으로 확장 할 수 있으며, 사용자 데이터에 액세스하고 연구하여 사고력을 키울 수 있습니다. Apple의 경우 인공 지능을 자체 개인 정보 보호 조건으로 제한하므로 대부분의 학습 및 처리 프로세스가 서버가없는 전화에서 이루어 지므로이 목적을 위해 특별히 프로세서에 모든 에너지를 투입합니다. 이 철학을 가진 애플이 구글을 이길 수 있을까? 곧 우리는 우리의 눈과 비교하고 있습니다. 그러나 한 달 안에 Google Pixel 3 전화도 볼 수 있다는 것을 잊지 마십시오.
새로운 iPhone XS 카메라에 대해 읽은 내용에 대해 어떻게 생각하십니까? 필수 구매 요소가됩니까?
한국어 :



56 리뷰