首页 > 制动知识 > 正文
智能驾驶事故频发,AEB为何无法“兜底”安全
作者: 未名 来源: 高工智能汽车 日期: 2022年4月12日

2020年6月,一辆特斯拉Model 3在中国台湾地区某高速公路发生事故,当时车辆开启了Autopilot功能,时速约为110Km/h。当时,驾驶员并未注意到前方有货车侧翻,在撞击前2秒系统才进行了紧急刹车。
 
在此之前,特斯拉不同型号车辆也多次撞上路边停靠的车辆,在事故发生后,车主都反馈曾经开启Autopoilot辅助驾驶功能。
 
就在近日,湖南岳阳的一位小鹏汽车车主驾驶车辆在国道上开启自动辅助驾驶行驶十几公里后,突遇一辆侧翻在路上的汽车。当时,系统没有任何报警和减速,车辆径直撞了上去,发现异常后有紧急踩刹车,但根据车主提供行车记录仪显示,撞击前加速度数值有上升现象。
 

\
 
随后,小鹏汽车发布公告,关于车主反映的其在使用ACC+LCC(自适应定速巡航&车道居中保持功能)时,与前方横停的事故车辆发生碰撞的事故,初步判断为车主没有保持对车辆前方环境的观察并及时接管车辆所致。
 
和此前特斯拉的处理方式一样,小鹏汽车官方提醒驾驶员,使用辅助驾驶系统过程中,需保持对车辆周围环境观察,遵循用户手册中相关功能的使用指引,确保行驶安全。
 
事实上,类似公路侧翻车辆的场景并非极少数个案。而且,此前特斯拉出现过类似事故,作为其他车企来说,为何无法把类似场景进行训练来提升辅助驾驶功能的识别能力?
 
1,智能驾驶边界定义
 
首先,我们看下此次发生事故的小鹏P7的配置。
 
目前,P7的智能驾驶主要分为两套版本,次低配为XPILOT 2.5+系统,搭载智能控制器(也就是行业内所说的ADAS ECU,也有叫:辅助驾驶控制单元),传感器为3个毫米波雷达、12个超声波、4颗环视摄像头、1颗前向高清感知摄像头。
 
顶配P7,则为XPILOT 3.0系统,搭载英伟达Xavier超级计算平台(也就是常说的智能驾驶域控制器),毫米波雷达增至5个,12个超声波、4颗环视摄像头以及10颗高清感知摄像头,另外还提供亚米级高精定位系统。
 
从产品手册的功能来看,XPILOT 3.0和2.5+相比,增加了NGP智能导航辅助驾驶、SR环境模拟显示、停车场记忆泊车和IHB智能远光灯,其他入门级L2功能基本一致。
 
按照官方手册的提示,XPILOT智能辅助驾驶系统无法应对所有交通、天气与路况。驾驶员必须始终注意观察当前交通状况,如果智能辅助驾驶系统未能提供适当的转向辅助或者保持适当的车距与车速,则需要驾驶员主动干预。
 
同时,驾驶员在使用功能前应意识到这些限制情况。在交通状况复杂多变、冰雪雨路面湿滑天气、道路积水或烂泥路面、能见度较差、崎岖山路或高速路入口出口等情况下,请谨慎使用。
 
这部分的说法,在特斯拉以及其他配置类似功能的品牌车型手册也都基本相似。不过,在这些明文条款的背后,小鹏汽车的技术团队也传递了更多的信息,这些信息在非专业人士看来,无疑会产生很多误解。
 
2020年,在小鹏P7发布后,时任小鹏汽车自动驾驶产品总监的黄鑫(今年4月有传闻,黄鑫已经加盟蔚来汽车,出任副总裁)在媒体交流会上做了很多解读。
 
传统意义上的辅助驾驶功能会在遇到路面有行驶障碍的情况下,启动系统退出,这是标准做法。但黄鑫认为,对于用户体验来说,这种做法并不好。“小鹏汽车就会针对这样的情况作出优化”。
 
比如,当前车辆旁边有其他车辆小角度变道过来,能不能及时识别判断,从而改变行车速度等,但并不需要退出辅助驾驶。
 
同时,对于一些常见的中国路况,小鹏汽车的功能逻辑更加强调对于场景的深度判断,比如,系统识别后能不能在安全的情况下,自动变道或者慢行避开,而不需要退出系统。
 
而针对此次事故中出现的静止车辆的识别问题(Xpilot 1.4版本就有媒体指出一个BUG:静止车辆基本无法识别),而在2019年小鹏汽车Xmart OS 1.5 版本升级时,能识别出这些静止车辆,同时系统会自动减速。
 
不过,在当天的发布会上,黄鑫在回答媒体提出的这个问题时,强调,“我们并不希望大规模去谈这个事。因为静止车辆的识别是全球性的难题,特斯拉也没有完全解决。”
 
此外,当时有媒体提出,Xpilot系统对静止车辆的识别率到底有多高?黄鑫表示,还有很大的进步空间,当下的识别率是83%(显然,车企对这个问题,实际上是非常关注的)。
 
去年9月,随着小鹏P5的上市,这款在国内第一批前装搭载激光雷达的智能车,又会有什么表现呢?黄鑫表示,激光雷达可以帮助突破现有自动驾驶的一些边界,把车辆的安全性做一个提升,更能适应国内道路的复杂性。
 
不过,小鹏汽车认为,可以通过车的智能化,让车无限地接近100%,可能最终只能实现97%,最后的3%或许可以通过V2X来解决,但时间没有保障,小鹏汽车则希望由人类驾驶员来完成余下的3%。
 
这3%可能是非常极端的场景,为了解决极端的场景,在成本上则需要增加300%或500%,对于量产来说并不划算。
 
这也是为什么小鹏汽车官方在此前多次公开场合强调,即便是NGP(XPILOT 3.0系统)依然属于辅助驾驶,而不是无人驾驶。小鹏汽车要求用户在使用NGP时期全程注视前方路况、手握方向盘、并随时准备手动接管。
 
显然,车企非常清楚功能的边界。
 
去年,小鹏汽车更是在国内市场率先上线XPILOT智驾分系统(用户通过一系列安全考试,获得智驾分。初始分值为满分100,更新周期为12个月。),目的是提醒车主规范使用辅助驾驶功能,了解辅助驾驶的安全边界及提升智驾安全意识。
 
2,功能背后的博弈
 
不过,对于公众(驾驶员)等非专业人士来说,普遍的认知逻辑是:先进技术要么不值得信任,要么是完美的。事实是,到目前为止,不管是摄像头、毫米波雷达、激光雷达还是其他感知技术,各有其优点和缺点。
 
考虑到对场景的安全冗余以及置信度的考虑,近年来,大部分厂商都选择了多感知融合来实现智能驾驶方案落地。不过,融合也带来了复杂度的提升。
 
同时,对于不同路况和场景,系统在无法确认感知是否正常(比如,假阳性)的情况下,还需要考虑到很多其他因素,比如,突然减速可能会造成当前车辆的后方追尾(比如,正后方传感器缺失或无法判别的情况下)。
 
以沃尔沃汽车的Pilot Assist为例,当车辆前方可能是缓慢移动或静止的车辆和物体,且Pilot Assist不确定目标物体是静止车辆还是其他物体时,系统会停用。
 
此前,特斯拉就提出了对于现有摄像头+毫米波雷达融合方案的否定。原因是传统毫米波雷达的探测性能(比如,分辨率)不稳定,导致与摄像头融合(无法实现真正的前融合)后带来错误,感知效果反而下降。
 
而这些传统毫米波雷达此前主要是为ACC功能开发的,雷达角分辨率较低,目标是为特定的功能而设计,但对于多感知融合系统来说,实际上性能无法满足要求(这也是为什么此前特斯拉对雷达进行了一定程度上的改进)。
 
这意味着,大部分雷达无法对探测到的物体(包括静止物体),进行类似摄像头的识别分类来确认物体的属性。比如,实际上车后的雷达信号处理,会对一定速度以下(包括静止物体)信号进行屏蔽,从而减少假阳性的出现概率。
 
这一点,也可以从之前博世的一次公开测试得到验证。
 
2020年10月,在一次博世商用车ADAS方案公开测试活动上,该公司演示了基于第五代前向毫米波雷达实现卡车(40km/h)对前方静止车辆(道具)的AEB,车辆从开始制动最后完全刹住,并与前车保持了一定的安全距离。
 
同时,通过增加摄像头,这套系统可以与毫米波雷达协作,实现道路监测、车道保持、车道偏离警告等功能。从中可以看出,对于多感知融合的不同功能实现逻辑,会有不同的效果。
 
而对于采取纯视觉方案的特斯拉来说,此前公开的数据显示,视觉AI算法已经达到了探测目标的精度,并且高于毫米波雷达的水平。特斯拉的AI负责人安德烈·卡帕西表示,Tesla Vision(纯视觉方案)相比视觉+雷达融合,能够更好地探测静止物体。
 
\
 
事实上,一些激光雷达公司也在此前披露,仅仅依靠激光雷达也可以实现AEB。比如,Luminar公司认为,激光雷达可以提供比单目摄像头更精确的距离测量,同时,相比双目等立体视觉感知,可以实现更远的探测距离。
 
目前,Luminar公司正在联合沃尔沃汽车旗下的子公司开发基于激光雷达的感知软件,为行人检测和AEB系统提供支持,以实现高速公路的自动驾驶,并提供冗余的主动安全能力。
 
实际上从上述案例可以看出,单一传感器很多时候可以比多感知融合表现出更稳定、更可靠的能力。当然,这些传感器都存在很多目前无法规避的问题,比如,摄像头无法完全克服恶劣天气的影响。
 
“自动紧急制动系统非常有效,但肯定还有改进的空间,”IIHS主动安全测试经理David Aylor表示,2015-2019年期间,全球已经有七次因AEB问题而产生的召回,涉及约18万辆汽车,这个数量还在不断增加。

比如,2020年由于AEB紧急制动系统出现问题,在某些情况下这些车型的系统可能无法正常工作,沃尔沃汽车宣布在全球范围内召回736430辆汽车。
 
3,多条技术路线并行
 
目前,解决这些问题的办法,也开始呈现多元化趋势。
 
一种方式,是特斯拉的纯视觉,依靠大量的数据训练来提升深度学习的能力。但这种模式需要时间来完善。
 
比如,在撤下毫米波雷达之后,特斯拉的纯视觉感知系统的“幽灵刹车”问题急剧增加。美国国家公路交通安全管理局(NHTSA)披露数据显示,车主投诉在三个月时间内上升至107起,而此前近两年时间仅为34起。
 
一些专业人士指出,这与感知系统发生变更后,工程师设置的判断阈值有关。多感知融合系统会相对比较少出现“幽灵刹车”,因为需要多种传感器的“交叉验证”。
 
而在此之前,特斯拉搭载纯视觉系统的车型,刚刚拿到美国高速公路安全保险协会(IIHS)的最高安全评级。这其中的差异,实际上也和AEB测试条件和场景不完善有关系。
 
一些机构表示,要让AEB真正发挥正向作用还需要“一些时间”,尤其是新车测试标准的要求提高以及覆盖场景的增加,比如引入类似自动驾驶测试的模拟仿真系统。
 
比如,美国IIHS只在两个速度下12mph(20km/h)和25mph(40km/h)对AEB系统进行评价,中国的C-NCAP也只是在30km/h、50km/h两个速度下(相当于匀速情况下)对车辆进行AEB测试。
 
而更加严格的Euro NCAP则覆盖了10-80km/h的范围,而且还模拟了前车的各种状态(静止、缓慢行驶、短距离/长距离急停)。
 
显然,现有的AEB测试条件并不能代表真实的交通状况。对消费者来说,这意味着AEB系统在高速、低速、不同天气条件下,并不可靠。
 
第二种方式,则是采用更多的新一代传感器来提升视觉的感知冗余,比如,4D成像雷达通过增加角分辨率、更多的点云,来实现与视觉的真正前融合。
 
不过,这条赛道目前还无法明确实际的效果。随着搭载4D成像雷达新车陆续上市,后续还需要完善雷达算法、融合算法以及面对实际路况的检验。
 
另外,还有双目立体视觉技术。
 
去年,搭载全新一代立体视觉方案的斯巴鲁Levorg(力狮)在日本NCAP (JNCAP)中拿到了最佳成绩,超过了10辆获得五星评级的竞争车型,以最高分获得最佳五星奖。
 
这是又一次对于立体视觉感知系统的量产证明,尤其是面对目前单目视觉能力还有所欠缺的场景能力,比如,晚上光线较暗情况下对车辆和行人的自动紧急制动(AEB)。
 
同时,和激光雷达相比,通过立体视觉生成的数据更丰富,这反过来使障碍物检测更容易。在弱光情况下,立体视觉分辨率也更高。
 
第三种方式,则是Mobileye提出的并行冗余策略。
 
在Mobileye看来,基于摄像头的纯视觉感知与雷达+激光雷达融合感知两套方案应该并行,才是真正的冗余。
 
该公司认为,摄像头是自动驾驶的主干,而雷达+激光雷达子系统则增加了安全冗余,并显著提高平均故障间隔时间(MTBF,也就是系统的可靠性指标)。
 
原因是,摄像头是属于被动感知,毫米波雷达和激光雷达则是通过主动发射信号来探测感知物体,这是完全不同的两大类传感技术。
 
之所以不采取摄像头与雷达或者激光雷达的融合策略,是因为这两种感知技术并没有在性能成熟度上达到接近的水平,甚至有可能牵制了视觉技术的性能发挥。
 
但不管采取什么方式,AEB功能是智能驾驶系统的安全底线。这也是为什么在很多车辆因为启用智能驾驶系统而发生事故的情况下,大家都会首先想到AEB为什么没有激活?

(转载请注明来源: 汽车制动网/chebrake.com 责任编辑:Jack)

推荐好友:
加入收藏: 加入收藏夹
】【打印本页】【发表评论】【关闭窗口
 
   
   
 
联系电话:021-50325218
Copyright 2007 www.chebrake.com. All rights reserved.
© 2007 汽车制动网 版权所有|法律声明 沪ICP备13016240号-2