毎年、Appleがその会議で何を更新し、何を更新しないかについての議論が起こります。 しかし、いくつかの側面は一定のままです。つまり、Appleがすべての会議でプロセッサを更新していることは確かです。 もちろん、Appleはカメラを更新しており、これは激しい競争のために非常に期待されているイベントです。AppleがGoogle Pixelデバイス、Samsungデバイス、さらにはHuaweiとの激しい競争でカメラの品質を制御できた時代は終わりました。 Appleは今年の競争で成功するだろうか?

iPhoneカメラ、ピクセルと競合できますか?


装備

おそらく私たちは、Appleが非の打ちどころのないハードウェアを製造しているため、基本的なAppleの変更がハードウェア領域で行われることに慣れています。通常、カメラハードウェアの横にシステムアップデートがあったとしても、カメラハードウェアに関連するアップデートが複数見つかります。なぜAppleのハードウェアが今年私を驚かせたのか。 実際にはハードウェアの多くは更新されていませんが、iPhone 5s以来初めてカメラセンサーのサイズが大きくなり、ピクセル数が意図されておらず、12-であるため、更新されたものは重要です。 iPhone 1.4s以降に使用されていたピクセルサイズであるiPhoneIPhone Xで使用されていた1.22ミクロンではなく、6ミクロンに等しい大きなピクセルサイズを特徴とするメガピクセルセンサー。 また、Appleが新しいピクセルサイズに合うようにレンズのプロパティを変更した可能性があります。

Appleはまた、フラッシュは「明るく」なったが、追加情報はなく、フロントカメラは新しいビデオインスタレーションを除いて変更はないと述べている。


カメラハードウェアを超えて

カメラハードウェアの新機能はわかっていますが、今年のAppleデバイスはAI領域でさらに輝いています。 7ナノメートルのアーキテクチャを備えた新しいプロセッサは明らかに電話のニューラルネットワークチップに焦点を当てているため、ニューラルネットワークチップは現在8コアであり、XNUMXつあたりXNUMX兆の処理操作を実行できるため、Appleの作業のほとんどはそれに焦点を当てているようです。 XNUMX番目。 この進歩は現在、拡張現実とカメラの利益になっています。カメラでは、人工知能を利用して画像を改善する方法を知っています。 そして、それは無印良品のようなかわいい追加のためだけではありません。 では、今年のハードウェアとシステムの改善から何が得られたのでしょうか。


よりスマートなカメラ

通常、カメラは画像の計算を行って、顔、目、および画像の前面と背面の要素などの他の詳細の特徴を分析します。 また、あまり焦点を当てるべきではない要素と比較して、焦点を当てるべき要素もあります。 これは、新しいiPhoneが優れている点です。カメラには、赤目現象をキャンセルしたり、画像内の重要な要素間の境界を区別したりするなど、画像を理解して改善するためのより多くの情報があります。 カメラは、画像をより適切にセグメント化してこれらの部分を比較し、画像の奥行き感を高めることもできます(通常の写真でも、ボケ効果だけではありません)。


また、スマートHDR

HDRはかなり前から携帯電話のカメラに存在しており、それはカメラがより良い写真を得るためにいくつかの写真を撮り、それらを一緒にマージすることを意味します。 ここから今年のAppleの構築を開始し、GoogleがPixel2デバイスとHDR +モードで行ったのと多少似ています。これは、Googleデバイスがさまざまな露出(露出は入ることができる光の量)で多くの写真を撮るからです。人工知能を使用した最高のディテール、およびこのテクノロジーのPixelは、複数の低露出写真をキャプチャします。 Appleに関しては、影の詳細をよりよく保存して出力するために、低露出を特徴とする画像と露出過多を特徴とする画像を使用しています。


インスタント写真

Appleはしばしばカメラのシャッタースピードと写真を撮るスピードを誇っていますが、常にわずかな遅れがあります。 あなたが速い写真を撮ることに夢中になっているならば、あなたが気付くかもしれないこの遅れ。 もしそうなら、カメラは常に写真を撮るので、写真が瞬時になっているので、今年はあなたの夢が叶うかもしれませんが、写真ボタンを押すまで常に直接撮影されてスキャンされるのは写真です。画像は消去されず、保存されます。 これが、Appleがボタンを押した後の画像の保存をゼロに遅らせることができた方法です。


可変深度

昨年以来のAppleのカメラは、奥行きやボケの効果が最も優れていると考えられており、ピクセル電話よりも優れています。これは、最終的にピクセルがシステムにのみ依存するのに対し、AppleはXNUMXつの別々のレンズを使用しているため、より良い結果が得られます。しかし今年、Appleは新しいシステム特性のおかげで、写真家が画像の深さと撮影後の効果の強さを変更できるようにすることを決定しました。 サムスンや一部のiPhoneアプリケーションなどの他のデバイスにも同様の機能がありますが、これらの方法は効果としてのみ変更されます。iPhoneXSについては、会議での電話の実験者は、いくつかの次元の深さを変更することを伝えましたそして、カメラのレンズを使用して実際の奥行きの変化をシミュレートする方法で、画像のさまざまなレベルで変化すること..もちろん、デバイスが販売可能になるまで、そしてこの時まで、完全な比較を行うことはできません。待たなければならない。


暗い場所やアクションシーンに適しています

カメラのピクセルが大きくなっているため、より多くの光をキャプチャしていることを意味します。 これにより、暗い場所での写真撮影が大幅に改善され、スマートHDRテクノロジー、人工知能の調整、カメラのシャッタースピードがすべて、動く被写体を撮影する際のより良い、より安定した写真を可能にします。


Google Pixelはどうですか?

Googleは、最初のピクセルデバイスのリリース以来、その卓越性が、システムを開発するために何億人ものユーザーのデータにアクセスできる巨大なサーバーによってサポートされる人工知能であることを知っていました。これはまさにGoogleが行ったことです。 Pixel 2カメラでは、カメラのハードウェアと特別なチップの品質にもかかわらず、ほとんどの賞賛は、電話のインテリジェンスが最良の方法で画像を出力するために画像を処理する方法に由来します。これがAppleは、人工知能システムのサービスの下で強力な処理能力を発揮し、今日の結果を出したため、今年の開発を試みていますが、iPhoneXSはピクセルデバイスと比較されないことを覚えておく必要があります2It間もなく期待されるPixel3と競争するためにここにさえいます。 グーグルは、それが使用とともに学習するので、そのシステムは無制限であるとしばしば述べています。 Googleが2年前に発表したPixelXNUMXと同じインテリジェンスシステムを開発したとしても、今回は新しいスマートフォンで使用した方が良いはずです。 また、もちろん、Googleは、補足的な人工知能の能力を高め、iPhoneを打ち負かすことができる画像を生成するために、カメラハードウェアに機能を追加する場合があります。

最後に、Googleエコシステムは、巨大なサーバーを介して永続的に拡張し、ユーザーデータにアクセスし、それを研究して思考の精神を養うことができます。 Appleに関しては、人工知能を独自のプライバシー条件に制限しているため、学習と処理のプロセスのほとんどはサーバーのない電話で行われるため、この目的のためにすべてのエネルギーをプロセッサに投入します。 この哲学を持つアップルはグーグルを打ち負かすことができますか? すぐに私達は私達の目と比較しています。 ただし、3か月以内にGoogle PixelXNUMXスマートフォンも表示されることを忘れないでください。


私が新しいiPhoneXSカメラについて読んだことについてどう思いますか? それはそれを本質的な購入要因にしますか?

動名詞:

Apple

関連記事