作者:大壮旅
雷锋网公众号:雷锋网)按,半年前,以色列古里昂大学博士生 Ben Nassi 在研究时成功完成了对 Mobileye 630 Pro 驾驶员辅助系统的一系列欺骗攻击。当时,他只是用到了简易的无人机和投影仪而已。
“欺骗”了 Mobileye 的驾驶员辅助系统后,Nassi 又在其他类似的系统上做了实验,结果特斯拉 Model X 也没能逃过这套简易装置的欺骗。
事实上,Nassi 用到的技术原理并不复杂,他能成功完成欺骗主要利用了人类和 AI 在图像识别上的差异。大多数情况下,Nassi 用投影仪投出的影像骗不了人但却能把 Autopilot 耍的团团转。实际上,某些欺骗攻击几乎是隐秘的,它们依赖于感知上的差异,在成功“戏耍”特斯拉的同时,也让人类驾驶员无从察觉。
Nassi 出于善意的实验也是为了提醒厂商驾驶员辅助系统的安全漏洞所在,在他看来这应该被称为“ADAS 的幻象”。从实验结果来看,我们也确实应该在半自动驾驶系统中添加一些防御性设计了。
在“欺骗”Model X 时,Nassi 和他的团队连无人机都没用到,一个助手手持投影仪就创造出了“ADAS 的幻象”。投影仪在地上,路边的树上和广告牌上投出了车道线和限速标志,结果那辆 Model X 还真的识别到了这些道路标识,乖乖跟着走了。
从安全的角度来看,攻击者根本不用出现在现场,更是留不下任何证据。此外,攻击者也不用自学成技术专家,十几岁的小孩子就能搞定。当然,装备上也无需那么昂贵或花哨,Nassi 和他的团队只是用了一些 200-300 美元的普通投影仪,其中有一台分辨率才 854×480,亮度也仅有 100 流明。
Nassi 的实验也从反面证明,Autopilot 识别起道路标识来还是挺“火眼金睛”的,毕竟有时投影只出现八分之一秒,人类驾驶员很难注意到,但却被 AI 图像识别系统察觉到了。
不过,我们还是要再次强调,Autopilot 只是一套半自动驾驶系统,因此人类驾驶员还是要对行车安全负责。如果驾驶员对这种恶作剧似的交通标识不管不问,没准你的车还真会被它带进沟里。
可惜,不是所有人都有这样的安全意识。2019 年的一项调查就显示,有接近一般的驾驶员过于相信 Autopilot,其中甚至有 6% 的受访者认为自己完全可以在车上睡大觉。
未来,车辆上的传感器肯定会越来越多,有人在驾驶席监督还好,如果真的全自动驾驶了,谁来保证车辆不被投影仪恶意欺骗呢?