无人驾驶特辑 5|辅助驾驶没有想象中安全,蔚来车祸谁该负责?| 事故( 二 )


熊伟铭:宣传很大程度上影响了大家对产品的理解。从法律上看,无论是特斯拉的FSD还是蔚来的NOP,产品的出厂说明书和规格都是L2,类似洗衣机只能洗衣服,但宣传的时候让大家觉得这是洗衣机机器人。
汽车本身是一个比较成熟的产品的,但可能功能比较新,所以大家会在脑子里自动脑补,混淆宣传的能力和实操之间的法律功能,所以形成的潜意识认知和实际上产品在法律层面上的功能定义非常不同。对于消费者,还是要看这个产品的法律底线卡在哪里,由此考虑怎么使用产品。
朱峰:可以从企业宣传和用户体验两个角度来看。企业宣传上,特斯拉开的头特别不好,它一开始就将辅助驾驶能力命名为AutoPilot,这极具误导性。早期特斯拉就在美国出过无数种事故,而且在YouTube上会看到很多人把辅助驾驶当成自动驾驶来用,比如破解了方向盘的一些检测功能,让车自己在马路上开,这就起到了不太好的引导作用。
无人驾驶特辑 5|辅助驾驶没有想象中安全,蔚来车祸谁该负责?| 事故
文章插图
图源:界面新闻
从用户体验的角度来看,我试驾过带有自动辅助驾驶功能的车之后,发现注意力会被自然分散。因为它帮你掌握了太多事,所以你就没有可能像开传统车一样,时时刻刻把住方向盘看前方,一定会有精神涣散的时候。
上次Uber发生在美国的事故中,驾驶员在出现撞击前看了手机,如果开的是没有任何辅助驾驶功能的车,他是不可能有这种行为的。
熊伟铭:蔚来的这个交通事故也体现了计算视觉为主导的自动驾驶技术目前的欠缺。我们经常说白天的白牛,就是指这样一个corner case:在光线很强的白天,路面上有一个白色物体,比如过马路的一头牛,计算视觉就很难判断到底是路的一部分还是交通线的一部分,其他浅色物体也会给计算视觉感知器件造成困扰。
所以我们一直坚持自动驾驶最好要加上激光雷达这样来感知路面路况的技术,不能只靠计算视觉。
过去几次特斯拉出事也是计算视觉在中间出现了问题,而蔚来这个事件,还和现场的光照条件、锥桶识别、机器追踪等有关,我觉得这些都是目前纯计算视觉为主导的自动驾驶技术还不成熟的方面。
这也是给所有自动驾驶公司提醒,不管我们法律上怎么定义自动驾驶,还是安全第一,尽管计算视觉在发展了很多年之后,这几年突飞猛进,但目前还不能做到尽善尽美,也是给大家提了个醒。
《硅谷101》:朱峰刚才讲的一点很重要,如果一个人正常开车会集中注意力,但是车自己开车,我们还要盯着方向盘看,时时准备接管,这是挺违背人性的事情。最早Waymo一上来直接从L4入手做自动驾驶车,他们想过渐进式过渡的方案,但发现驾驶员做不到不开车还要注意力集中准备接管,这比自己开车还难很多。
熊伟铭:我觉得这和乘客或驾驶员对设备是否放心的心理安全边际也有些关系。我之前看过河北特斯拉的事是,驾驶员躺在后面睡觉,车在前面跑。
所以跟用户对设备安全性的信心也有关,不知道事故是不是会偏向年轻驾驶员,他们过于信赖技术,而年纪大一点的经验多一点的司机,交规和路况这两个事情应该是最关心的事情,反而不太关心车速和其他驾驶方面的技术。
朱峰:刚才讲的是驾驶员对车的信任的问题,还有行人对车的信任问题。现在马路上绝大多数车还是由人来驾驶的,在这种情况下,很多人会自然而然认为车会躲我,会有人的逻辑。
所以行人对车能力上限的一个预期,也是非常重要的。我在 18 年去 Google开会的时候,在园区里被Waymo的车剐蹭过,也是因为我当时穿着一个白 T 恤。