随着特斯拉FSD入华时间的临近,网上关于它的讨论也越来越多,有人吹,有人踩,反正各种奇奇怪怪的信息都有,而最近《华尔街日报》的媒体频道发布的一段针对特斯拉Autopilot发生事故时的分析调查视频,引起了媒体的广泛热议。
根据《华尔街日报》曝光的信息来看,从2021年算起至今,特斯拉Autopilot已发生了上千起碰撞事故,专家对其222起典型事故进行了分析指出:特斯拉Autopilot事故频发的原因可能与其采用的纯视觉方案有关。
其中44起事故是特斯拉Autopilot突然转向导致碰撞,另有31起事故是系统未能识别障碍物所致,其中有一起严重事故就是与这一问题相关。视频显示,在一段夜间行驶的过程中,Autopilot未能及时识别出前方侧翻在地的卡车,只是在快要发生碰撞时车辆才介入,做出了转向反应,最终视频车不可避免的与卡车发生了碰撞。
对此,华尔街日报专门请到了上传发布这个视频的特斯拉员工「约翰·贝纳尔」,他说:“一些特斯拉车型上使用的摄像头没有正确校准,导致不同的摄像头识别到的东西不一样。而当不同摄像头识别到的东西不一样时,Autopilot就可能在识别障碍物上出现问题”。
当然,值得注意的是,本次《华尔街日报》公布的特斯拉Autopilot所使用的系统只是最为基础入门的L2级自动驾驶的版本,而特斯拉的自动驾驶系统一共有AP、EAP、FSD三个版本,目前精度最高且在未来会普及进入国内的应该是最高阶的FSD。
也就是说,大家不能直接把本次华尔街日报公布的信息与FSD联系在一起,也不能简单地认为,特斯拉的自动驾驶系统都不安全。根据特斯拉公开的信息,目前特斯拉的FSD已经更新到了V12.5.1版本,其性能比涉事的AP系统,高级很多。
有专家认为,纯视觉方案的自动驾驶方案最大的问题,并不是“单纯视觉”不够精确,而是信息捕捉后,系统能否拥有快速灵敏的反应,使其在复杂驾驶的情况下,能够让车辆做出最为合理及时的选择。这背后不仅需要硬件层面的进步,也需要软件系统方面的支持,而目前,人工智能技术的革新正在给未来带来契机。
事实上,不管是否使用激光雷达,汽车系统总是不可避免的会出现错误,而错乱复杂的交通道路、由其他人所主导的交通工具、甚至是街上的摩托车、小电驴,都会给自动驾驶汽车的行驶带来了不稳定因素。
如何通过监管和法规约束,来迫使车企在生产研发新技术的同时,加强对安全可靠性的把控,而不是单纯地为了商业竞争而盲目地推陈出新,才是当前各个国家必须面临的问题,这也是《华尔街日报》本次揭露这一事件的真正目的。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/1026832.html