这很可能会冷却自动驾驶的追随者。敏锐的安全实验室安全研究人员表明,一名特斯拉的自动驾驶员可能会被挂在路上的小贴纸上。在演示视频中,我们看到了特斯拉模型的变化通道,并以错误的方式找到了自己。
https://www.youtube.com/watch?v=6QSSKY0I9LE?start=84
正如我们在视频中看到的那样,该错误是由特斯拉交通车道上对角线粘合的三个小白色贴纸引起的。自动飞行员将其解释为一条连续的线,这鼓励他向左抢劫。相反,人类肯定不会以这种方式被欺骗。
在他的文档D'Analyze,Keen Security Lab解释说,此黑客攻击之所以起作用,是因为交通线的识别是 - 矛盾的 - 太强大了。在他们的测试中,研究人员首先试图找到无法识别的线形式,因为散布或有效。但是没有什么可做的:不可能轻松地欺骗自动飞行员。“我们假设这是因为特斯拉在她的学习数据中增加了许多异常线(破碎,被阻塞)”,强调研究人员。
自动飞行员被过度训练
突然,研究人员试图将问题颠倒地解决:是否有对人类没有注意到的标记,但是该系统将其视为连续的线路?答案是肯定的。特斯拉的自动驾驶员非常成功,以至于道路上的一些小标记有时被解释为连续线,有点像连接点的点。受到质疑ARS Technica但是,特斯拉认为,这种攻击不是真正的问题,因为驾驶员可以随时控制驾驶援助系统。这个答案有点短,因为驾驶员被迫阻止自动飞行员的任何错误仍然很烦人。
腾讯研究人员还设法欺骗了另一个人工智能系统,即降雨检测装置。这允许自动启动刮水器,并依赖于后视镜后面安装的鱼眼相机。通过分析该系统,他们设法找到了一个图形设计,该图形设计将汽车解释为落在挡风玻璃上的滴剂。我们在视频中看到,这种诱饵显示在放置在汽车前面的大屏幕上,这会使雨刮器启动。在现实生活中,这种攻击显然很难设想。

这不是安全研究人员第一次试图通过修改环境图形方面来转移图像识别系统。在2017年,分析表明有可能扭曲交通标志的解释通过粘贴小黑白贴纸。
最后,研究人员展示了如何通过游戏控制器驾驶汽车。只有在旧固件上才有可能,因为该黑客基于2018年揭示的关键故障并从那以后进行了纠正。因此,目前的车辆并不脆弱,但看来总是非常令人印象深刻。