在人工智能技术加速发展惊人的世界里,苹果去年推出了“视觉智能”功能,并对其进行了重大改进。 iOS 26更新它已成为苹果“智能”生态系统的重要组成部分。在之前的版本中,它仅限于使用摄像头,但现在由于支持屏幕内容、静态图像分析,甚至与 ChatGPT 通信以获取更深入的洞察,它变得更加智能和互动。接下来,我们将回顾 iOS 26 中视觉智能技术最重要的改进,以及它如何改变我们在 iPhone 上与图像和视觉内容的交互方式。

视觉智能是一项人工智能功能,可以分析图像并提供准确的信息。它可以通过摄像头或屏幕截图识别植物、地标、艺术品和书籍等对象,提供更多详细信息,或直接引导您进行在线搜索,甚至在日历中查看即将举行的活动或约会。一些最重要的改进包括:
屏幕内容感知功能

在之前的 iOS 18 版本中,视觉智能功能仅通过摄像头工作。但在 iOS 26 中,您现在可以使用它来分析 iPhone 屏幕上显示的内容!现在,您可以截取屏幕截图并使用视觉智能识别其中的对象、搜索相似图像,甚至通过 ChatGPT 获取更多信息。您只需执行以下操作:
◉ 同时按下音量增大按钮和电源按钮来截取屏幕截图。
◉ 点击屏幕顶部的小笔图标退出标记模式。
◉ 视觉智能选项将自动出现在界面中,可立即使用并识别图像中的物体。
这些简单的步骤让您可以轻松地与屏幕上看到的任何内容进行交互,无论您是在浏览社交媒体还是阅读文章。
“阴影搜索”功能

iOS 26 的一大亮点是“突出显示搜索”功能,它与 Android 的“圈出搜索”非常相似。此功能允许您用手指突出显示屏幕截图中的特定对象,然后在线搜索它。操作方式如下:
用手指围绕您想要搜索的对象进行绘制,例如您在图像中喜欢的产品。
Visual Intelligence 默认使用 Google 图片搜索,但 Apple 已证明该功能也适用于 Etsy 等应用程序。
在某些情况下,视觉智能可以自动识别物体而无需对其进行遮蔽,就像照片应用程序中的物体识别功能一样。
例如,你可以用它来搜索你在社交媒体上发布的照片中看到的任何产品——现在只需点击一下,就能找到在哪里购买!你还可以用它来查询一件艺术品、一件你不知道名字的神秘物品,甚至是截图中某个特定地点的详细信息。
问题与研究

如果您不需要选择特定对象,可以使用“提问”按钮,输入关于图片内容的问题。您的问题将被定向到 ChatGPT,ChatGPT 将提供详细且快速的解答。“搜索”按钮将直接跳转到 Google 搜索结果。
例如,如果您截取了会议公告的屏幕截图,视觉智能可以自动提取日期和时间,并建议将其添加到您的日历中。这不仅节省您的时间,还让您的设备更加智能!
了解新型生物

苹果不仅改进了屏幕交互,还增加了利用视觉智能识别新类型物体的支持。该功能现在可以像以前一样识别绘画、书籍、旅游景点和自然地标、雕像、植物和动物。
当您对受支持的物体使用视觉智能时,会出现一个发光的小图标。无论您是直接使用相机还是拍照,点击它即可获取即时信息。这项功能的一大优势在于,物体识别功能在设备上进行,无需网络连接,从而增强了隐私保护。
兼容性和发布日期
“视觉智能”功能仅在支持“Apple Intelligence”的设备上可用,即iPhone 15 Pro、iPhone 15 Pro Max、所有iPhone 16型号以及更新的设备。
要激活该功能,您可以长按具有该功能的设备上的“相机控制”按钮,或者使用“操作”按钮或控制中心中的选项。
至于发布日期,iOS 26 仍处于 Beta 测试阶段,但将于 2025 年 XNUMX 月向公众发布。如果您渴望提前体验,可以加入公开测试计划。
得益于这些改进,iPhone 的视觉智能变得更加集成和逼真。苹果并不满足于仅仅跟上竞争对手的步伐,而是融入自己的特色,以提供智能流畅的体验。无论您是想识别花朵的种类、绘画的名称,还是向 ChatGPT 询问屏幕截图的内容,iOS 26 都提供了值得探索的全新体验。
相片:



2条评论