在挑战安全性的启示中自动驾驶汽车东北大学的教授凯文·富(Kevin Fu)专门从事新技术探索,发现了如何使自动驾驶汽车幻觉。
Fu和他的团队发现了一种全新的网络攻击,这是一种“声学对抗性”的机器学习形式,它们称为“ Poltergeist攻击”,“TechXplore报告。这种新技术操纵了自动驾驶汽车和无人机的感知,可能威胁到他们的安全操作。

对自动驾驶汽车的poltergeist攻击
Poltergeist攻击与传统网络威胁,例如黑客或障碍。它们创建了使用机器学习进行决策过程的机器,创造了类似于错觉的欺骗性视觉现实。
这次攻击的基础在于剥削光学图像稳定技术,这是从智能手机到自动驾驶汽车的各种设备的当代相机中常见的特征。
通常,这项技术会在图像捕获过程中反击运动或摇晃,从而确保清晰而专注的图片。但是,FU的研究发现了该系统中的脆弱性。
FU的团队通过查明这些相机中传感器的共振频率来成功操纵图像,这些相机通常是超声波的。这种干扰会导致机器学习算法的误解,可能导致自主系统的严重错误判断。
FU提供了一个生动的类比,将这种现象与熟练的歌剧歌手进行了比较,通过达到其谐振频率,打破了酒杯。在这种情况下,他们通过准确敲击正确的谐振音符并扭曲图像来诱导传感器注册误导性信息。
对自主系统安全的威胁
Poltergeist攻击的含义远远超出了不便。据该团队称,他们对自主系统的安全运行构成了真正的威胁,尤其是部署在快速移动车辆上的系统。
例如,操纵的看法可能导致无人驾驶汽车识别出不存在的停车标志,从而在潜在的危险情况下突然停止。
另外,它可能会欺骗汽车无视实际物体,例如人或其他车辆,从而导致碰撞。 FU强调了工程师和开发人员面对和减轻这些漏洞的紧迫性。
富在新闻报道中说:“技术人员希望看到消费者拥抱新技术,但是如果这些技术并不真正宽容这类网络安全威胁,他们就不会自信,也不会使用它们。” “然后,我们将看到数十年来的挫折,而技术根本无法使用。”
Poltergeist攻击的出现迅速提醒人们对自主系统不断发展的景观中严格的网络安全措施的关键需求。
FU的研究阐明了迄今未探索的网络威胁大道,促使该行业加倍努力,以强化这些技术抵抗潜在的逆境。
