AEB误美味婆婆认高速广告牌车辆为真车,“幽灵刹车”为何频现?

美味婆婆

IWEAP12AJDSF182812KLIASDF

  辅助驾驶系统AEB误认高速广告牌车辆为真车,“幽灵刹车”为何频现?目前有一定局限性。

  近日,一辆在高速公路上行驶的理想L9误将广告牌识别成真车致追尾一事引发关注。

  一位湖北襄阳的理想L9车主在社交媒体上称,自己驾驶未上牌的新车理想L9在高速公路上开启了辅助驾驶系统,车辆在行驶中检测到高处广告牌上的小货车图片,突然急刹,导致后车追尾。涉事车辆为理想L9Pro车型。事故发生后,经交警认定,该车主负此次事故的全部责任。

  理想汽车方面表示,对此次事故分析的结论是,视觉误检前方广告牌上的卡车,导致自车异常减速,辅助驾驶目前确有一定局限性。

  官方资料显示,理想L9Pro版车型搭载了智能驾驶ADPro,可实现安全舒适的高速NOA(自动辅助导航驾驶),车型配有10个摄像头、12个超声波雷达和1个毫米波雷达。今年北京车展期间,理想智能驾驶ADPro、ADMax平台能力全面进化。其中,ADPro3.0于5月初随OTA5.2推送,实现千公里接管级别的高速NOA、支持红绿灯路口起停的城市LCC(车道居中辅助)、复杂车位的智能泊车。

  去年5月,四川甘孜一车主驾驶理想L7在路上正常行驶,突然车速从80km/h降速到20km/h,直接刹停。该车主表示,当时路上没有任何障碍物,只有一块广告牌,上面有一个人准备起跑。车主联系了理想汽车,官方表示,该事件是因为激光雷达把广告牌上准备起跑的人物,识别成了在路中间的真人,所以才紧急刹停。

  当驾驶员开启辅助驾驶功能后,车辆在前方没有障碍物或不会与前车发生碰撞的前提下,在高速行驶中突然刹车,也就是车辆AEB(紧急制动功能)自动启动,这种现象被称为“幽灵刹车”。

  “幽灵刹车”现象出现的原因是AEB功能出现识别错误。

  辉羲智能研发人员马静表示,AEB是目前很多车辆都已配置的一项功能,通过安装在车上的辅助驾驶系统——可以是摄像头、毫米波雷达、激光雷达,或各种组合——对自车状态及周围交通环境实时监控,并分析计算,判定合适的刹车介入时机。

  AEB的TP(正确触发)和FP(错误触发)是一对矛盾,概率上讲,TP越大,FP必然也越大。而在实际体验中,误触发的危险不言而喻,随着AEB的普及,误触发导致的惊吓和伤害已越来越多成为抱怨焦点。

  马静认为,真正做好AEB很难。“需要感知能力强、系统链路延时小,光这两点想要做好都不容易。此外,AEB功能算法本身,也会导致性能天差地别。”

  “当前主流的驾驶辅助系统,主要使用摄像头和毫米波来进行感知,但摄像头识别精确度较低,难以区分和天空颜色较为接近的物体;毫米波雷达的识别精度更高,但对于静止物体敏感度较低,并且无法准确识别塑料、布料等材质的物体。”一位行业人士在接受第一财经记者采访时表示。此外,辅助驾驶技术需要进一步提高视觉和感知能力,配备多重安全保障系统,包括传感器、摄像头、雷达、激光雷达等,实时感知周围环境,才能做出正确的决策。并且需要实现

  此前,特斯拉也爆出类似的事故。2023年7月,特斯拉因为自动驾驶安全问题遭到加州总检察长办公室的调查。起因是2022年8月,一位2018款特斯拉Model3车主向联邦贸易委员会提出投诉,原因是车辆存在“幽灵刹车”问题。该车主表示,自己购买特斯拉FSD软件花费数千美元,但在实际使用过程中,他感到被特斯拉误导了。车辆在开启了自动驾驶功能之后,会在正常行驶途中将路旁的标牌误认为是限速或停车标志,然后猛踩刹车,给车主带来人身危险以及车辆追尾事故的风险。

  有观点认为,特斯拉可能采用了纯视觉自动驾驶方案,这导致了问题的产生。特斯拉汽车完全依赖摄像头收集数据,相较于国内车企的混合视觉方案,其数据收集可能不够全面,尤其是在存在遮挡物的情况下。

  “激光雷达形成的图像叫点云,是由千万个点组成的,它本身看不见图像,但像一个盲人摸象一样,能塑造出障碍物的轮廓。所以广告牌无论画了什么,都不会影响在系统里的呈现,只是一块方块而已。”汽车行业分析师刘刚(化名)对记者表示,几年以前,特斯拉也出现过面对白色横停的集装箱货车,直接撞上的情况,它把白色车厢理解为晴朗天空下的白云。不过经过多年的演进,相信特斯拉已经有针对性地做了重点训练,早已解决这一bug。

  值得注意的是,近日美国激光雷达上市公司Luminar在财报中透露,特斯拉成为其2024年第一季度最大的客户,贡献了该公司10%以上的收入。按照财报公布的数据计算,特斯拉购买了超过210万美元的激光雷达。

  在智能驾驶技术路线上,一直以来,特斯拉坚定视觉方案,而多数车企选择了激光雷达的技术路线。不过,今年以来,广汽、华为纷纷发布纯视觉方案智能驾驶产品。其中,华为宣布在智界S7车型上首次采用纯视觉自动驾驶方案。

  “Cornercases(在智能驾驶中很少出现但可能导致危险的异常情况)可以说是无穷尽的,所以中国车企只有通过大数据训练,改良算法,才能更好地解决这个问题。同样我觉得这也说明,激光雷达的不可或缺性。纯视觉一定会有缺陷,我认为依靠纯视觉完成的自动驾驶,是提高了自动驾驶的下限,而不是提高了能力的上限。也就是说日常场景下它可以挥洒自如,但如果遇到没见过和理解错误的场景,它依然会犯错。”刘刚对记者表示。

  值得注意的是,除了极易导致危险的“幽灵刹车”外,近年来关于辅助驾驶误判问题不在少数。此前,一名小鹏汽车车主因眼睛小被系统误判开车睡觉;汽车KOL常岩亦表示,因为眼睛小触发过很多汽车品牌辅助驾驶系统的实时警告。常岩称,通用汽车的SuperCruise会判定他过度疲劳;岚图FREE会在冬天为了让他别困打开冷风;蔚来ET7认定他开车疲劳和走神。

  而出现上述误判,原因在于车辆配备的DMS(DriverMonitorSystem)驾驶员监测系统。虽然技术已得到长足的进步,但尚无企业能够实现完全自动驾驶,即便开启了高阶驾驶辅助功能,驾驶员依旧需要对于车辆运行状态进行监控。然而有相当一部分用户,或是被宣传误导,或是好奇心驱使急于尝鲜,将高级驾驶辅助系统当做自动驾驶使用。近两年来,由于用户不合理使用驾驶辅助系统,导致事故的新闻也屡见不鲜。

  责任编辑:刘万里SF014

联系我们