多年来,特斯拉一直自豪地宣称其先进驾驶辅助系统——全自动驾驶(Full Self-Driving)是真正的技术革新。该系统声称能在交通中导航、管理高速公路驾驶,并多次宣称这是驾驶的未来,尽管与该系统相关的车祸、碰撞甚至死亡事件越来越多。现在,一项新的研究调查了该系统究竟能在需要人工干预之前行驶多远,结果并不理想。
汽车研究公司AMCI Testing希望了解全自动驾驶的极限在哪,于是决定在加利福尼亚的街道上行驶超过1000英里,据Ars Technica报道。在驾驶过程中,研究人员不得不接管方向盘超过75次。据Ars Technica报道,配备全自动驾驶系统的特斯拉汽车上的安全驾驶员几乎每13英里就要接管一次车辆,这主要是因为遇到了红灯,或在某些情况下,遇到了迎面驶来的车辆。正如该网站报道的那样:
AMCI遇到的危险行为包括闯红灯以及在另一辆车驶向特斯拉时在弯曲的道路上越过迎面车道。更糟的是,FSD的行为证明是不可预测的——这也许是特斯拉依赖于机器学习这一概率性黑箱的结果?“无论是计算能力不足、由于车辆‘计算滞后’而产生的缓冲问题,还是对周围环境评估方面的某些细节问题,都是无法确定的。这些故障是最隐蔽的。
但也有一些简单程序设计不足的连续性故障,例如在距离高速公路出口仅0.1英里时才开始变道,这使得系统受限并对其基础编程的整体质量产生怀疑,”Mangiamele说。这些关于Autopilot和全自动驾驶的缺陷早已有迹可循,车主们报告说,他们的特斯拉甚至无法识别从铁路交叉口到停着的警车的一切。在某些情况下,FSD在识别道路上的障碍物和危险时的问题导致了车祸。
然而,AMCI也指出,近年来该系统取得了多大的进步,据Electrek报道。研究公司表示,第一次进入配备全自动驾驶功能的特斯拉的任何人都会感到“惊叹”,这可能会导致未来在驾驶过程中出现问题,据Electrek报道:AMCI Testing的总监Guy Mangiamele解释说:“无法否认的是,FSD 12.5.1令人印象深刻,尤其是对于一个基于摄像头的系统来说,它实现了一系列类似人类的反应。
但在任何人第一次使用FSD的前五分钟内,其显得无懈可击的表现会让人产生一种敬畏感,这不可避免地导致了危险的自满情绪。当驾驶员在全自动驾驶系统开启的情况下驾驶,而他们的手放在大腿上或远离方向盘时,这是非常危险的。正如你在视频中所见,FSD误判的最关键时刻是瞬间事件,即使是具有测试心态的专业司机也必须集中精力捕捉这些时刻。”