苹果大中国副总裁兼董事总经理盖Yue在上海2022年世界人工智能会议上谈到了苹果的新机器学习项目。
Yue通过Apple Watch,AirPods Pro和其他Apple产品来说明该项目可访问性和健康的好处。
苹果的机器学习项目
根据美国国家公共电台Yue说,机器学习在Apple希望其产品可以帮助人们创新,创造和提供他们每天需要的支持的希望中起着重要作用。
Yue补充说,Apple的核心价值之一是可访问性,该公司希望为所有人生产合适的产品。
苹果的机器学习可以帮助残疾用户提供独立性和便利性,包括视力障碍,听力障碍,身体和运动障碍的人以及认知障碍的人。
添加到Apple产品中的最新机器学习功能是辅助触摸,望向和声音。
Apple Watch的辅助触摸
2021年,Apple Watch与iPad上的眼睛追踪启动了辅助触摸功能。
这些功能旨在支持移动性有限的用户,并允许具有上身肢体差异的用户享受Apple Watch的好处,而无需触摸显示器或控件。
Apple Touch使用内置运动传感器,以及光学心率传感器和设备机器学习。
该设备还可以检测到肌肉运动和肌腱活动的细微差异,这使用户可以通过一系列的手势浏览光标。
辅助触摸还使有残疾的用户可以轻松接听传入的呼叫,控制屏幕上的运动指针,访问通知中心等等。
Yue说,辅助触摸将设备上的机器学习与传感器的数据结合在一起,以帮助检测肌肉运动和肌腱活动的细微差异,以取代显示攻击明显的苹果。
眼神和声音
iPados将很快增加对眼睛追踪设备的支持,从而使用户只能使用眼睛控制其iPad。
在2022年底,兼容的MFI设备将跟踪一个人在屏幕上的位置,并且指针将在扩展的眼神交流行为时移动以跟随用户的目光,类似于Tap。
另一个机器学习功能是语音,可以通过iPhone访问。该功能现在可以为用户提供有关图像的更多详细信息,包括文本,表数据和其他图像对象。
语音现在也可以描述一个人在图像中的位置。
根据9to5mac,苹果将引入语音的新功能,但未指定日期。这家技术巨头计划将图像描述添加到Voice上,以获取低视力和视力障碍的iPhone用户。
使用图像描述,用户可以探索有关图像中看到的人,表数据,文本和其他对象的更多详细信息。
用户还可以通过行,列和标题浏览收据照片。该功能还可以描述一个人的位置和图像中的其他对象,以便用户可以详细地缓解记忆。
本文由技术时报拥有
由索菲·韦伯斯特(Sophie Webster)撰写