iOS 18.2 的第一个测试版向开发者推出,引入了与 Apple Intelligence 相关的新功能。其中,苹果打开了视觉智能的闸门,该模块很大程度上受到谷歌镜头的启发。
苹果刚刚推出iOS 18.2 的第一个开发者测试版,许多新功能与 Apple Intelligence 相关。其中,库比蒂诺公司推出了 Visual Intelligence,这是一个与 Google 提供的模块非常相似的模块。谷歌镜头,有一个主要区别:它执行速度快,并从多个来源获取信息。
视觉智能,Google Lens d'Apple
与 Google Lens 不同,Visual Intelligence 不会在应用程序中启动。要访问它,只需短暂按住 iPhone 16 上的新“相机控制”按钮即可,这也使其成为 iPhone 16 系列独有的功能。
具体来说,一旦模块被激活,你所要做的就是将 iPhone 摄像头指向物体的方向,或者你想要搜索的地方。您将能够快速识别狗的品种、邻居花坛中您不知道名字的宏伟植物,或者显示您刚刚经过的那家餐厅的信息。
苹果公司解释说,可以识别地点(使用苹果地图中的信息),甚至可以使用视觉智能在日历中动态创建活动。 “这一切都是结合本地情报和 Apple 服务私下完成的,从不存储您的图像» 还指出了视觉智能演示视频中的 Craig Federighi。
就我们而言,不幸的是我们无法尝试这些功能,每个请求都在兜圈子,没有显示任何响应。由于该功能目前处于测试阶段,这无疑是一个失误,肯定会很快得到纠正。
第三方服务提供的答案
除了 Apple Intelligence 提供的清晰答案之外,Visual Intelligence 还提供了另外两个选项,用于从 iPhone 拍摄的图像中查找信息。您可以启动视觉搜索(Search),或者直接询问Apple Intelligence这是什么(Ask)。
对于第一个(搜索),苹果并没有付出太多努力。库比蒂诺公司只需在……Google 上发起查询即可!获得的视觉结果直接显示在搜索引擎页面上,就像 Google Lens 一样。
对于第二个问题,Apple 仅依赖 ChatGPT。事实上,OpenAI 的人工智能会询问所捕获图像的内容,并立即在屏幕顶部的弹出窗口中显示非常学术的描述。
就目前情况而言,视觉智能虽然因其使用速度而实用,但并不是很有革命性。我们可能必须等到该模块部署到所有用户(并在未来的更新中发展?)才能围绕它开发新用途。
Opera One - AI 驱动的网络浏览器
作者:歌剧