蘋果大中國副總裁兼董事總經理蓋Yue在上海2022年世界人工智能會議上談到了蘋果的新機器學習項目。
Yue通過Apple Watch,AirPods Pro和其他Apple產品來說明該項目可訪問性和健康的好處。
蘋果的機器學習項目
根據美國國家公共電台Yue說,機器學習在Apple希望其產品可以幫助人們創新,創造和提供他們每天需要的支持的希望中起著重要作用。
Yue補充說,Apple的核心價值之一是可訪問性,該公司希望為所有人生產合適的產品。
蘋果的機器學習可以幫助殘疾用戶提供獨立性和便利性,包括視力障礙,聽力障礙,身體和運動障礙的人以及認知障礙的人。
添加到Apple產品中的最新機器學習功能是輔助觸摸,望向和聲音。
Apple Watch的輔助觸摸
2021年,Apple Watch與iPad上的眼睛追踪啟動了輔助觸摸功能。
這些功能旨在支持移動性有限的用戶,並允許具有上身肢體差異的用戶享受Apple Watch的好處,而無需觸摸顯示器或控件。
Apple Touch使用內置運動傳感器,以及光學心率傳感器和設備機器學習。
該設備還可以檢測到肌肉運動和肌腱活動的細微差異,這使用戶可以通過一系列的手勢瀏覽光標。
輔助觸摸還使有殘疾的用戶可以輕鬆接聽傳入的呼叫,控制屏幕上的運動指針,訪問通知中心等等。
Yue說,輔助觸摸將設備上的機器學習與傳感器的數據結合在一起,以幫助檢測肌肉運動和肌腱活動的細微差異,以取代顯示攻擊明顯的蘋果。
眼神和聲音
iPados將很快增加對眼睛追踪設備的支持,從而使用戶只能使用眼睛控制其iPad。
在2022年底,兼容的MFI設備將跟踪一個人在屏幕上的位置,並且指針將在擴展的眼神交流行為時移動以跟隨用戶的目光,類似於Tap。
另一個機器學習功能是語音,可以通過iPhone訪問。該功能現在可以為用戶提供有關圖像的更多詳細信息,包括文本,表數據和其他圖像對象。
語音現在也可以描述一個人在圖像中的位置。
根據9to5mac,蘋果將引入語音的新功能,但未指定日期。這家技術巨頭計劃將圖像描述添加到Voice上,以獲取低視力和視力障礙的iPhone用戶。
使用圖像描述,用戶可以探索有關圖像中看到的人,表數據,文本和其他對象的更多詳細信息。
用戶還可以通過行,列和標題瀏覽收據照片。該功能還可以描述一個人的位置和圖像中的其他對象,以便用戶可以詳細地緩解記憶。
本文由技術時報擁有
由索菲·韋伯斯特(Sophie Webster)撰寫