古い iPhone デバイスをサポートする可能性があります IOS17アップデートただし、これはすべての機能を備えていることを意味するものではなく、毎年の主要な iOS アップデートの一部の機能では、スムーズな動作を保証するために特定の技術的品質を備えたチップセットが必要です。 したがって、最新の機械学習アルゴリズムに依存する iOS 17 の一部の機能が適切に機能するためには、より新しいチップが必要であることは驚くべきことではありません。 一部の機能は、LiDAR センサーなど、特定のコンポーネントなしでは機能しない場合にのみ機能するように設計されています。 したがって、次の新機能には少なくとも iPhone 12 が必要であることに注意してください。


StandBy は常時オンのディスプレイに適しています

この機能により、iPhone が MagSafe ホルダーに水平方向に装着されて出荷されると、iPhone がスマート ダッシュボードに変わり、簡単にアクセスできる、一目見ただけで理解できる有益な情報が表示される画面になります。 重要な情報を簡潔に提供します。

また、画面に表示されるツールをカスタマイズして、さまざまな形の時計を追加したり、写真を追加したりして、iPhone を充電しながらお気に入りの写真や思い出を見ることができるなど、ユーザー インターフェイス要素を簡単に追加することもできます。

また、通知を大きく表示して遠くからでもはっきりと確認できるほか、ボタンの寸法も大きく明確になり、特定の機能やアクションにすばやくアクセスできるようになります。

この機能は主に常時表示テクノロジーに依存しているため、iPhone 14 Pro や Pro Max などの iPhone 対応デバイスでは正常に動作しますが、そのテクノロジーが搭載されていない iPhone では画面をクリックする必要がある場合があります。スタンバイまたはスタンバイ機能にアクセスします。


ポイントアンドトーク機能には LIDAR スキャナーが必要です

拡大鏡検出モードのアクセシビリティ ポイント アンド スピーク機能を使用すると、目の見えないユーザーや視覚障害のあるユーザーが、家電製品などのカメラを通して表示されるボタンやラベルを指差し、説明したり読み上げたりすることができます。 この機能は、視覚障害のある人にアクセシビリティと独立性を高め、さまざまなオブジェクトをより効果的に操作して理解できるようにすることを目的としています。

この機能には LiDAR スキャナーが必要であるため、iPhone 12 Pro、iPhone 12 Pro Max、iPhone 13 Pro、Pro Max、iPhone 14 Pro および 14 Pro Max でのみ動作します。


FaceTime でのユーザーのジェスチャーに対する反応

iOS 17 アップデートでは、ハート、風船、花火、クリップアート、レーザーなどのよく知られた iMessage 効果が FaceTime 通話で利用できるようになりました。 拡張現実効果はカメラのフレーム全体に表示され、Zoom や WebEx Meetings などの互換性のあるサードパーティのビデオ会議アプリケーションで使用できます。

リアルタイムの反応は手動で、または親指を立てるなどの単純な手のジェスチャーで呼び出すことができます。 ただし、ジェスチャー応答は、iPhone 12 以降で前面カメラを使用している場合にのみ利用できます。

すでに iOS 11 アップデートをサポートしている iPhone 2020、iPhone XS、iPhone XR、17 年の iPhone SE などの古い iPhone モデルでは、コントロール センターからジェスチャ応答を手動で有効にする必要があります。


内蔵の入力予測は古い iPhone では利用できません

iOS 17 アップデートでは、機械学習テクノロジーが各キーストロークをスキャンして今後のテキストを予測し、単語や文全体を完成させることができます。 メッセージやメモなどのアプリケーションに書き込むときに、スペースバーを押すと、灰色で表示される予測テキスト候補を使用できます。

この機能はテキスト入力を大幅に高速化できますが、iPhone 12 以降で英語キーボードを使用している場合にのみ機能します。 この機能はiPhone 11以前のモデルではサポートされていません。 また、この機能は、Google の Gboard や Microsoft SwiftKey などのサードパーティのキーボード アプリでは動作しません。


強化されたオートコレクトは言語とデバイスが制限されています

Apple の Newsroom への投稿によると、iOS 17 のオートコレクト機能は、正確な単語予測のために高度なオンデバイス機械学習言語モデルを使用するように再設計されました。

精度の向上に加えて、修正された単語が一時的に強調表示され、変更がより目立つようになります。 ユーザーは、修正した単語をクリックしてすぐに元に戻すことができます。 言語モデルが改善されたことで、以前のバージョンと比較して、完全な文における文法エラーをより広範囲に処理できるようになりました。

iOS 17 アップデートの改善されたオートコレクトは現在、アラビア語、オランダ語、英語、フランス語、ドイツ語、ヘブライ語、韓国語、イタリア語、ポーランド語、ポルトガル語、ルーマニア語、スペイン語、タイ語の言語をサポートしています。 強化されたオートコレクトは、iPhone 12 以降のモデルにのみ限定されます。


iOS 17 の一部の機能が古い iPhone では動作しないのはなぜですか?

前述の仕事は機械学習と人工知能に大きく依存しています。 このコプロセッサにより、iPhone のニューラル エンジンが CPU や GPU とは別に AI アルゴリズムを実装できるようになり、エネルギー効率が確保され、クラウド コンピューティング リソースの必要性が軽減されます。

すべての運動ニューロンが同じ能力を持っているわけではありません。 iPhone 14 の A12 Bionic チップのニューラル エンジンは以前のバージョンの 14 倍高速であり、A10 チップには第 13 世代の機械学習マトリックス アクセラレータも搭載されており、iPhone 11 の AXNUMX チップのニューラル エンジンよりも XNUMX 倍高速です。

したがって、iPhone 12 は、以前の iPhone モデルと比較して、人工知能、ディープラーニング、ニューラル ネットワークに関連するタスクをはるかに高速に実行でき、パフォーマンスも向上します。

iPhone 12 をお持ちの場合は、ジェスチャ フィードバック、改善されたオートコレクト、および前述したその他の iOS 17 機能を見逃すことはありません。

iPhone 12 以降をお持ちですか? 今日の記事で最も気に入った機能はどれですか? コメントで教えてください。

動名詞:

メイク

関連記事