iOS 18.2 的第一個測試版向開發者推出,引進了與 Apple Intelligence 相關的新功能。其中,蘋果打開了視覺智慧的閘門,該模組很大程度上受到Google鏡頭的啟發。
蘋果剛推出iOS 18.2 的第一個開發者測試版,許多新功能與 Apple Intelligence 相關。其中,庫比蒂諾公司推出了 Visual Intelligence,這是一個與 Google 提供的模組非常相似的模組。谷歌鏡頭,有一個主要區別:它執行速度快,並從多個來源獲取資訊。
視覺智能,Google Lens d'Apple
與 Google Lens 不同,Visual Intelligence 不會在應用程式中啟動。要存取它,只需短暫按住 iPhone 16 上的新「相機控制」按鈕即可,這也使其成為 iPhone 16 系列獨有的功能。
具體來說,一旦模組被激活,你所要做的就是將 iPhone 相機指向物體的方向,或你想要搜尋的地方。您將能夠快速識別一隻狗的品種,鄰居花壇裡那株您不知道名字的宏偉植物,或顯示您剛剛路過的那家餐廳的資訊。
蘋果解釋說,可以識別地點(使用蘋果地圖中的信息),甚至可以使用視覺智慧在日曆中動態創建活動。 “這一切都是結合本地情報和 Apple 服務私下完成的,從不儲存您的圖像» 也指出了視覺智慧演示影片中的 Craig Federighi。
就我們而言,不幸的是我們無法嘗試這些功能,每個請求都在兜圈子,沒有顯示任何回應。由於該功能目前處於測試階段,這無疑是一個失誤,肯定會很快得到糾正。
第三方服務提供的答案
除了 Apple Intelligence 提供的清晰答案之外,Visual Intelligence 還提供了另外兩個選項,可從 iPhone 拍攝的影像中尋找資訊。您可以啟動視覺搜尋(Search),或直接詢問Apple Intelligence這是什麼(Ask)。
對於第一個(搜尋),蘋果並沒有付出太多努力。庫比蒂諾公司只需在…Google 上發起查詢即可!獲得的視覺結果直接顯示在搜尋引擎頁面上,就像 Google Lens 一樣。
對於第二個問題,Apple 僅依賴 ChatGPT。事實上,OpenAI 的人工智慧會詢問所捕獲影像的內容,並立即在螢幕頂部的彈出視窗中顯示非常學術的描述。
就目前情況而言,視覺智慧雖然因其使用速度而實用,但並不是很革命性。我們可能必須等到該模組部署到所有用戶(並在未來的更新中發展?)才能圍繞它開發新用途。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇