與開發人員啟動,iOS 18.2的第一個Beta啟動了與Apple Intelligence相關的新功能。其中,蘋果打開了視覺智能閥,這是一個非常受Google鏡頭啟發的模塊。
蘋果剛剛部署開發人員的iOS 18.2的第一個Beta,使用鑰匙,許多與Apple Intelligence有關的新產品。其中,庫比蒂諾公司引入了視覺智能,一個模塊與Google提供的模塊非常相似Google鏡頭,有一個重大區別:他迅速運行,並從多個來源獲取信息。
視覺智能,Le Google Lens d'Apple
與Google鏡頭不同,視覺智能不在應用程序中。要訪問它,只需簡要介紹iPhone 16上的新“相機命令”按鈕,這使其成為iPhone 16範圍的獨家功能。
具體而言,一旦激活了模塊,只需將iPhone攝像頭指向對像或要啟動搜索的位置即可。您將能夠迅速識別狗的品種,這種宏偉的植物,您在鄰居的花床上忽略了狗的名字,或者從您剛剛經過的這家餐廳中顯示信息。
Apple解釋說,可以識別位置(得益於Apple Maps信息),或者使用視覺智能在日曆中即時創建一個事件。 “”所有這些都是使用當地情報和蘋果服務的組合私下完成的,這些服務永遠不會存儲您的圖像“在視覺智能演示視頻中指示Craig Federighi。
在我們這邊,不幸的是,我們無法嘗試這些功能,每個請求都圓圈旋轉,而沒有顯示任何答案。該功能暫時可用,這無疑是一個點火故障,肯定會迅速糾正。
第三方服務提供的答复
除了Apple Intelligence提供的自己的響應外,Visual Intelligence還提供了另外兩個選項,可以從用iPhone捕獲的圖像中搜索信息。因此,您可以啟動視覺搜索(搜索),或直接詢問Apple Intelligence(詢問)是什麼。
對於第一個(搜索),蘋果沒有太多的努力來提供。 Cupertino公司只是在…Google上啟動了請求!與Google鏡頭一樣,獲得的視覺結果直接顯示在搜索引擎頁面上。
在第二個問題上,蘋果只是依靠chatgpt。確實,在屏幕頂部顯示的彈出窗口中,Openai的人工智能確實受到了捕獲的圖像內容的質疑,並立即顯示出非常學術的描述。
就目前而言,雖然視覺智能以其使用速度實行,但並不是很革命性的。毫無疑問,需要等到所有用戶部署該模塊(並在下一個更新中發展?)以進行新的開髮用途。
Opera One-促進AI的Web瀏覽器
作者:歌劇