首页 > 资讯 > 汽车 > 正文

特斯拉自动驾驶再出事故 静止目标无法识别 短期内无解?

2020-06-24 11:05:42来源:中国汽车报网

近日,一辆特斯拉Model 3在中国台湾省嘉义县水上乡高速路段发生了一起由自动辅助驾驶(AutoPilot)系统故障而导致的车祸,车辆在没有采取任

近日,一辆特斯拉Model 3在中国台湾省嘉义县水上乡高速路段发生了一起由自动辅助驾驶(AutoPilot)系统故障而导致的车祸,车辆在没有采取任何减速或转向避让动作的情况下,径直撞向了前方已经发生侧翻的货车。后据驾驶者回忆,当时他启用了AutoPilot功能,并将速度设置在110km/h,驾驶者本以为该功能可以侦测到障碍物并采取相应措施,但实际结果并非如此。

让众人感到不解的是,侧翻在路面上的货车,其横截面积远比正常行驶中的货车要大。也就是说,单从感知测量的难度来看,侧翻的货车本应更容易被识别,而以AutoPilot闻名的特斯拉却在这项实际测验中“翻车”,这不免让人们对自动驾驶的未来充满担忧。

静止的“公路杀手”

相对静止的物体似乎是自动驾驶和辅助驾驶在技术升级之路上的一大障碍。

2016年5月,美国佛罗里达州一位男子驾驶开启着Autopilot系统的特斯拉Model S,撞上一辆正在马路中间行驶的半挂卡车,导致驾驶员当场死亡;2018年初,在洛杉矶405高速公路上,一辆特斯拉Model S撞上了一辆停在路边的消防车,司机告诉消防部门当时汽车正在使用AutoPilot功能;2018年,中国发生的首例“特斯拉自动驾驶”车祸致死案,车辆同样是在开启AutoPilot模式下撞上一辆停泊在高速路旁的道路清扫车;2019年3月,还是在美国佛罗里达州,一辆特斯拉Model 3以110km/ h的车速径直撞向一辆正在缓慢横穿马路的白色拖挂卡车,驾驶员不幸罹难。

如果从结果上来看,这些都是处于AutoPilot开启状态的汽车无法识别被测物体而导致的意外事故。但在技术层面上,早期特斯拉产品的传感器配置和如今特斯拉产品的传感器配置已经发生了质的改变。2016年之前的Model S使用的芯片是Mobileye公司的EyeQ3芯片技术,以单摄像头为主,辅以毫米波雷达等传感设备;而如今Model 3使用最新的英伟达自动驾驶芯片,处理速度远超当年芯片水平。同时,Model 3车头安装了一颗前置毫米波雷达,车身四周布置8颗摄像头和12个超声波传感器。

无论是从硬件配置还是软件层面,两款产品已经不能同日而语,但最新的产品在面对类似情况时还是“栽了跟头”,可见,相对静止的物体仍是自动驾驶前行道路上的一大瓶颈。

因过度信任自动驾驶辅助系统而引发的事故是我们最不愿看到的结果,它似乎以这种方式提醒着人们自动驾驶有多不靠谱。对于目前的自动驾驶辅助系统,专业人士普遍表示不能完全信任。

理想汽车首席执行官李想曾在社交平台发表观点称:“目前摄像头+毫米波雷达的组合像青蛙的眼睛,对于动态物体判断还好,对于非标准的静态物体几乎无能。视觉在这个层面的进展几乎停滞,哪怕是动态,车辆以外的识别率也低于80%,千万别真当自动驾驶来使用。”可见,即便从硬件和技术层面已经取得很大进步,但专业人士还是建议我们把命运掌握在自己手里。

出问题的是传感器还是算法?

其实从应用层面来看,任何一家车企在使用说明中都不曾提及驾驶者可以完全将车辆控制权移交给车辆,即便走在行业领先地位的特斯拉也只宣称AutoPilot是一项辅助功能,车主在使用它的时候双手不能离开方向盘,且注意力得一直放在驾驶上。

至于造成车辆事故的原因是什么,这个问题还需要有关方面进一步调查,但分析原因大致可分为两种情况:传感器未能检测到物体;或传感器检测到了物体,但AutoPilot尚无能力解答这道“超纲题”。

传感器未检测到物体这种情况,或许在几年前还解释得通。由于此前以单目摄像头检测物体作为主要参考项,确实存在被外界环境干扰的可能性,而毫米波雷达仅作为辅助没能及时发挥作用,很容易导致事故发生。但如今的特斯拉配装了1颗毫米波雷达、8颗摄像头以及12个超声波雷达,如此之多的传感器全部失效几乎是不可能出现的情况,那么它的问题出在哪儿?

纽劢科技首席执行官徐雷认为,识别不出静止障碍物不一定是摄像头的问题。双目摄像头通过测算距离,它会发现前方有东西;单目摄像头的工作原理则是重建路面,它也能发现路面上的障碍物。所以,徐雷估计应该是算法的问题。

智能驾驶技术专家郭继舜分析认为,视觉算法训练数据的局限性或是致使事故发生的一个原因。据了解,摄像头一般通过观察来对路面上的物体进行分类,包括形状、大小、面积等,也就是说摄像头见得越多,学习到的模型也就越多,通过全球用户的数据共享,使得摄像头学习的内容变得丰富,算法变得更精准。

“一般训练的都是识别车辆后部、侧面、头部,工程师可能没想过有一天需要识别货车的箱体顶部。”郭继舜在谈论到这起事故时说,深度学习模型不能对这个物体进行分类。也就是说,算法不支持识别货车白色箱体这样类似于“一堵墙”的障碍物,由此造成了事故。智能驾驶行业会将以上情况称为“Corner Case”(边界情况),即便未来自动驾驶的数据量再大、行驶里程再长、信息处理能力再强,摄像头也很难将世间万物全部都识别出来,并做出正确、及时地应对。

而另一种可能则在于,大部分自然界物体的颜色都是18度灰,在户外状态,如高速公路,其灰度则更低,也就是说颜色更浅,物体的特征更不明显,再加上阳光的反射,很容易被摄像头判定为自然环境的一部分,无法与“天空”或是“路面”区分开来。

两种说法或许并不能服众,因为即便摄像头处于“视觉盲区”和“知识盲区”,毫米波雷达也还在工作,为何雷达也未能奏效?

清华大学苏州汽车研究院智能网联中心主任戴一凡认为,毫米波雷达一般会把静止物体过滤掉的,因为墙,桥,交通牌等太多类似信号,否则误报太高。图像算法时应该没有考虑侧面车厢这种太特殊的情况。到近距离处,车辆应该是信任了雷达的检测,但那时完全制动来不及了。不过,虽然在这起事故中,特斯拉撞到静止障碍物,但其制动系统也发挥了一些作用,降低了事故伤害。“强依赖图像的自动驾驶技术方案,都容易出现这类问题。这是行业的共性问题。”戴一凡说。

“毫米波雷达对金属敏感度太高,噪声太多,造成了虚警和鬼影太多,而视觉算法的准确度越来越高,所以现阶段AEB 系统对毫米波雷达的置信度权重下降,感知结果以视觉感知为主,通过一段时间内的置信度投票的方式获得最终的感知输出。这也是在这个案例中,毫米波雷达没有及时给系统报警的原因。” 郭继舜表示。

短期内无解

从目前的技术发展来看,激光雷达似乎展现出比摄像头和毫米波雷达更具优势的特点。由于激光频率高,波长短,光束能量密度大,因此具备分辨率高、距离精准,受外界影响小、信噪比高等特点,是非常理想的环境传感器。而其原理是根据激光遇到障碍后的折返时间,计算目标与自己的相对距离,这些反馈回来的轮廓信息组成所谓的“点云”并绘制出三维环境地图,精度可达到厘米级。“多配装激光雷达是能够解决识别不出静止障碍物这个难题的。”戴一凡说。

不过,应用激光雷达尚有几方面瓶颈。首先是成本问题。企业最关注的问题便是成本,目前,由于激光雷达还处于测试阶段,并未大规模量产使用,所以其当下面临最大的难点便是成本高、难维护。“这几年,激光雷达的价格虽有所降低,但降低地十分有限。激光雷达价格下降还需要依靠大规模的配装来分摊成本。”戴一凡说。

其次,相比摄像头,激光雷达缺失了色彩信息。如果搭配使用两种传感器,无疑会进一步增加成本。事实上,摄像头和毫米波雷达由于分辨率、帧率、信息丰富程度、算法适配度、产品成熟成本低等多种优势,仍然是现阶段智能驾驶传感器的首选。

这也就是说,或许很长一段时间内,我们仍无法百分百放心地将车辆控制权交给汽车。虽然“L2级别自动驾驶”、“高级驾驶辅助”等功能让驾驶变得更加轻松,但从技术和成本的角度考量,自动驾驶技术的局限性依旧很大,驾驶者在日常行车时依然要时刻保持警惕,对生命保持敬畏。(中国汽车报网 张海天)

关键词: 特斯拉 自动驾驶 无法识别

责任编辑:hnmd004