机器之心专栏
作者:陈熙(Nuance)、刘学(麦吉尔大学)
1.事件回顾
3月18日星期天晚十点左右,Uber的一辆自动驾驶SUV在美国亚利桑那州坦佩市的街道上造成了一起交通致死事故。坦佩市的警方证实,在事故发生时,该SUV处于自动驾驶模式并撞上了一名推着自行车横穿马路的女士。医院抢救无效后去世。坦佩市警察局莫尔,在看过由UberSUV车载摄像头记录的行车视频之后表示,该名女士「从阴影中直接走到了路中间」。Uber的自动驾驶系统和车内的安全员都没有注意到她的出现。在撞上受害者的过程中,UberSUV并没有减速。该名女士被认为是第一位因自动驾驶而去世的行人。
但这其实并不是第一起自动驾驶致人死亡的事故。将近两年以前,在美国佛罗里达州,一辆特斯拉汽车撞上了一辆半挂式卡车,造成了特斯拉司机的死亡。根据事后特斯拉发布的消息,这一辆特斯拉ModelS正开启着自动驾驶模式,沿着高速公路行驶。与此同时,一辆半挂式卡车从垂直方向的高速公路路过。在明亮天空的光照下,特斯拉的自动驾驶系统和司机都没有看到半挂式卡车的白色拖车部分,因此没有踩下刹车。特斯拉汽车的挡风玻璃直接撞上了拖车部分的底座,导致了司机的死亡。
就如同Uber在事故后发表的推特所说,我们都对遇难者家属表示深切哀悼。但同时,我们也应该进一步了解,Uber、特斯拉、以及其它采用自动驾驶技术的公司的车辆,为何没能避免事故的发生。这样,我们才能进一步完善新技术,并避免再次发生类似的事故。
2.为什么现有的自动驾驶技术没能避免车祸的发生
为了回答这一问题,我们先要了解现有的自动驾驶技术是如何感知周围环境和检测行人的。
2.1.现有的自动驾驶技术如何感知周围环境
Uber、特斯拉以及谷歌所采用的自动驾驶系统,主要是基于摄像头和光学雷达(即Lidar)。接下来,我们以Uber的自动驾驶系统(如图一所示)为例进行分析。
Uber的自动驾驶SUV搭载了若干个成像系统,可以应对常规任务和紧急任务。
图1.UberSUV搭载的自动驾驶系统
车顶Lidar。如图1所示,SUV车顶的桶装设备就是一个Lidar。它每秒会生成若干个反应车辆周边情况的三维图像(即pointcloud,点云)。它通过发射红外线脉冲,并收集反射信号,来获得它与周围物体间的距离信息,从而实现检测静止和运动的物体的目的。
车前雷达。与Lidar类似,雷达通过发送无线电波并接收反射信号来测量距离。相较于Lidar的红外线光信号,雷达的无线电波的抗干扰性更强,能抵抗雨雪和大雾天气的影响。但雷达的辨率更低,工作距离也更小。
长短距光学摄像头。Lidar和雷达在测距和定位方面表现出色,但在其它一些任务领域则力不从心,例如识别交通信号和分辨颜色方面。这类任务是由可见光摄像头以及其背后一系列复杂的计算机视觉算法所负责。UberSUV摄像头会检测前车刹车(红色刹车灯)、红绿灯、行人等特征图形图案。特别是在SUV的前向,Uber采用了多个不同种类摄影头提取不同角度的图像信息,以获得行车环境的全面信息。这一摄像头系统,是对人类视觉系统的模拟和延伸。
2.2.Uber的自动驾驶SUV为何没有检测到行人
2.2.1.摄像头有其固有缺陷
行人检测是摄像头系统需要负责的主要任务之一。很明显,在事故发生时,Uber的摄像头系统并没有有效地完成其任务。为了分析Uber的摄像头为何没有检测到行人,我们仔细查看了UberSUV摄像头所拍摄的事故视频。
在视频中,在事故发生的当晚,车辆所行驶的道路上,有一部分道路是被阴影所覆盖的。推着自行车的女士从道路的左边开始穿越道路(我们以UberSUV行进方向为正向)。她横穿道路的路线,恰好处在阴影区域内。起初,SUV的摄像头在阴影区域的方向,除了一片昏暗以外什么也看不到。直到SUV的车前灯照射到了这名女士,摄像头才发现了她的存在。然而此时,SUV离这名女士只有几米远,并在以65公里每小时的速度行驶中。无论是自动驾驶系统或是车内的安全员都来不及做出反应,最终造成了事故的发生。我们认为,在视频所体现出来的光照环境下,即便是一名专心开车的司机,也很可能无法避免事故的发生。(也有一些美国的网友指出,故事街道的光照条件并不像视频所显示的那么昏暗。但可以确定的是,阴影区域的光照条件,的确其它路段的光照条件差许多。)
图2.事故现场示意图
然而,这只是机器和人类视觉系统的固有缺陷所造成的悲剧的其中一件。在另一件自动驾驶致死的事故中,特斯拉自动驾驶车所搭载的摄像头以及司机,都没能在明亮的天空的映衬下,注意到前方的卡车。与UberSUV所经历的昏暗的环境所不同,Tesla轿车的摄像头处于十分耀眼的光照环境中。从这两个事故中,我们可以总结出基于视觉的自动驾驶技术的固有缺陷。
缺陷1:视觉系统在较差的光照条件下(例如过暗或过亮),表现不稳定。
图3给出了一些视觉系统在较差光照条件下表现不稳定的例子。
图3.视觉系统在较差光照条件下表现不稳定
在我们开车时,我们也会经常遇到另一类情况。当车辆经过某些路段时,行车视野很可能被部分遮挡。遮挡物可以来自自然环境,例如,树木、树篱和灌木丛等,也可以来自人造环境,例如其它大型车辆、指示牌、围墙和围栏等。通过这类路段时,司机需要十分的注意来往车辆行人。不幸的是,事故还是时有发生。图4给出了这一情况的几个例子,中文俗称鬼探头。
图4.交通中「鬼探头」的例子
由此,我们总结出基于视觉的自动驾驶技术的第二个固有缺点。
缺陷2:视觉系统会被障碍物所遮挡,因而对被遮挡区域的潜在危险一无所知。
从更广泛的意义上说,现有的基于视觉的自动驾驶技术试图复制一个类似人类的司机。因此,它们无法从根本上克服人类司机及其视觉系统的固有缺陷。
2.2.2.Lidar不适合行人检测
除了摄像头以外,UberSUV还搭载了光学雷达系统。这一系统即便在完全黑暗的条件下,也能正常工作。那么为什么UberSUV还是没能及时检测到行人呢?其根本原因在于,光学雷达并不是为行人检测所设计的。它之所以不能及时检测到行人,是因为它如下所述的局限性。
光学雷达的英文Lidar,是LightDetectionAndRanging的缩写,即光学检测和测距。Lidar本身是一种测绘技术。它通过发射脉冲激光并分析反射信号,来测量发射源到某一目标距离。商用的Lidar善于测距并检测测距目标大致的形状。但是它们并不善于实时地分辨物体(例如识别远处的汽车或自行车)。其原因有以下几点。1)Lidar没有办法获得物体宝贵的颜色信息;2)Lidar的分辨率比较有限,特别是对于远处物体的分辨率较低(激光光束将会太发散,以至于无法形成有效的图像或点云);3)相对于高速的车辆环境来说,Lidar的刷新率不够高。
基于以上局限性,我们尝试着还原了UberSUV的光学系统在事故发生时的工作状态。(以下对于Lidar的分析都是基于我们的理解和假设。实际情况究竟是怎么样,会在Uber分析并公布Lidar系统记录之后,有一个更加清晰的还原。)当推着自行车的女士进入对向车道时,Uber的Lidar的确检测到了一些反射信号。但是由于前文所述的局限性,Lidar并不能识别这究竟是一名自行车骑手、一辆汽车、一棵树、一个交通指示牌、或是其它什么物体。在行车过程中,对向车道存在物体是完全正常的现象。最常见的例子是另一辆相向行驶的车辆。因此,即便Lidar检测到了有物体的存在,也没有减速或刹车的必要,除非是SUV的车载摄像头发现了行人或者交通信号。不幸的是,UberSUV的车载摄像头并没有发现推自行车的女士。因此,当该名女士突然进入SUV所行驶的车道时,她已经离SUV很近了。这时,Lidar发现SUV前面出现了障碍物,但为时已晚。
3.利用车载通信提升自动驾驶以避免车祸的发生
如前文所述,仅仅是模拟人类的视觉系统,并不能实现可靠的行人检测,也无法完全避免类似Uber和Tesla所经历的这类事故。如果我们想实现从根本上优于人类司机的自动驾驶系统,那么我们必须为其配备人类所不具备的能力。例如,如果自行车骑手能够以某种主动的方式,将她的存在通知给UberSUV,或者是,如果半挂式卡车能够主动地将其位置和尺寸告知Tesla自动驾驶车,那么这些事故都可以避免,或至少不会造成人员死亡。但问题是,我们现在能够以经济有效的方式实现这一任务么?
答案是肯定的。
车载通信技术(即Vehicle-to-Everything,V2X)正是为类似的安全性任务而设计的。以车辆专用短程通信技术(即DedicatedShort-RangeCommunications,DSRC)为例,该技术支持所有的交通参与者以每秒10到20次的频率交互其动态信息。这些信息包括位置、速度、加速度、行进方向、以及其它交通相关信息。这样一来,即便视野不清晰或是视线被遮挡,司机或者自动驾驶车都能够及时了解周围所有的交通情况。更重要的是,无线信号传播能力,能将司机或自动驾驶车的感知能力,从视觉所及的范围,提升到视觉所不及的几公里之外。
接下来,让我们以UberSUV事故场景为例,分析一下V2X技术能如何避免事故的发生并拯救人们的生命。
场景1:人-车通信(Vehicular-to-Pedestrian,V2P)
在这个场景中(如图5所示),一名自行车骑手B和一辆汽车V1都加载了嵌入式的V2P通信模块。当骑手B要横穿马路时,车辆V1能够预测到B将会出现在V1的行车路线上。做到这一点,只需要车辆V1对骑手B最近几秒内的位置、速度、加速度和方向信息,进行分析和预测,即可描绘出骑手B过去、现在以及将来的行进路线。而以上这些信息,骑手B都会主动地周期性地通过V2P的无线信道,与车辆V1(以及周围其它的交通参与者)进行共享。于是,当骑手B刚刚开始横穿马路是,车辆V1便及时预测到两者的行进路线有可能交汇,从而及时降速并避免了可能发生的事故。
图5.人-车通信(V2P)场景
场景2:车-车通信(Vehicular-to-Vehicle,V2V)
也许有人会说,自行车骑手有可能不愿意佩戴V2P设备(尽管V2X芯片,例如高通的QCAA,已经做到了毫米级的尺寸)。在这种情况下,我们也可以依靠V2V通信,实现多车辆视野共享,从而为每一辆汽车提供更清晰全面的视野。在图6所示的场景中,道路上有一名未佩戴V2P设备的骑手B,和两辆装载了V2V设备的车辆V1和V2。在骑手B横穿马路时,V1的摄像头没能在昏暗的光线下及时识别出B。而没有携带任何设备的骑手也将她的存在无法告知V1。幸运的是,这次我们有车辆V2的帮助。车辆V2从另一个方向驶向现场,V2的摄像头和Lidar能更好的检测到骑手B的存在。车辆V2及时地通过V2V通信,将自己的视野分享给V1。于是,V1能够从分享的视野中发现B的存在,从而及时制动来避免事故的发生。
图6.车-车(V2V)通信场景
场景3:车-基础设施通信(Vehicular-to-Vehicle,V2V)
当然,也有可能光照条件如此恶劣以至于任何车辆的摄像头都没有检测到骑手B,或是V1是路上唯一的车辆。在这种场景中(如图7所示),我们还可以利用沿路放置的交通传感器,来辅助完成行人检测。(读者可参考这一链接了解更多关于交通传感器的介绍:
本文编辑:佚名
转载请注明出地址 http://www.smartcarf.com/smartcarcx/8368.html