来自美国和中国的研究人员表明,亚马逊的Alexa,Apple的Siri和Google Assistant将跟随Music中隐藏恶意的语音命令。
数字助理安全问题并不是什么新鲜事。但是,这是最新的不同,因为它甚至可能受害最谨慎的用户,因为潜意识的语音命令是无法检测到的。
藏在音乐中的数字助手的恶意语音命令
在过去的两年中,研究人员在大学实验室工作了隐藏的命令,只有Siri,Alexa和Google Assistant才能接手,而不是人类。
2016年,乔治敦大学和加州大学伯克利分校的学生表明,可以将命令隐藏在来自扬声器或YouTube视频的白噪声中,以使智能设备执行诸如打开网站和激活飞机模式之类的功能。在研究的最新发展中,一些加州大学伯克利分校的学生决定一种将命令隐藏在音乐或口语文本录音中的方法。
加州大学伯克利分校(UC Berkeley)说:“我们想看看是否可以使它更加隐秘。”学生尼古拉斯·卡利尼(Nicholas Carlini),这项研究的作者之一出版在线的。该小组提供了嵌入语音命令的歌曲样本,以使数字助手做特定的事情,包括访问网站,打开GPS和拨打电话。
黑客已经使用该方法了吗?
根据卡利尼的说法,没有证据表明攻击者已经开始在现实世界中使用这种方法。但是,他补充说,这可能只是时间问题,卡利尼假设黑客已经开始尝试复制他的团队的工作。
尽管研究人员所证明的未被发现的语音命令是无害的,但攻击者如何利用该技术很容易。他们可以让数字助手解锁智能房屋的门,通过银行应用程序转移资金,并从在线零售商处购买商品,而所有这些都不知道发生了什么。
想要的常规用户保护他们本人最早在攻击中就可以使用一些选择。用于设备的所有者Alexa和Google助手,他们可以利用可选功能,该功能将基于语音模式链接到特定用户的个人信息链接。同时,iPhone和iPad所有者对西里要求iOS设备在允许访问敏感信息之前被解锁。
亚马逊,苹果和Google保护客户的一种方法是进一步开发语音身份验证措施,以便设备只能识别真实用户的命令。