“幽灵刹车”频发,是特斯拉纯视觉感知的锅?( 四 )


“幽灵刹车”频发,是特斯拉纯视觉感知的锅?
文章图片
2020Q1-2022Q1特斯拉整体毛利率走势 , 数据来源于公开数据 , 连线出行制图
这样来看 , 特斯拉依靠纯视觉路线收获到了许多利好 , 但不可否认 , 这一路线也存在着一些弊端 。
“纯视觉路线 , 对于AI算法的依赖更多一些 , 但基于目前AI算法的能力 , 相比于利用激光雷达的融合感知而言 , 纯视觉路线对于外界感知的能力会存在一定的cornercase(边界外问题) , 由此存在一定的风险 。 ”王宇这样对连线出行表示 。
而随着特斯拉“幽灵刹车”事件的频发 , 进一步放大了业内对纯视觉感知路线存在风险的感知 。
03纯视觉感知路线该为“幽灵刹车”背锅吗?
要讨论这一问题 , 首先要看“幽灵刹车”是如何发生的 。
“一般而言 , 车辆在辅助驾驶过程中主动刹车 , 原本是一种主动避险的行为 。 而幽灵刹车则是由于车身上的感知硬件被外界环境误导 , 从而产生的错误避险行为 , 很有可能会导致车内人员受伤 。 ”王宇对连线出行解释道 。
王宇举例表示 , 就像特斯拉行驶在公路上 , 突然车辆前方飘来一个塑料袋 , 其车身上的摄像头或许会把塑料袋“误认为”是一辆车辆 , 从而通过计算判断来做出刹车避险的行为 。
这背后的原理简单说 , 就是摄像头一般对于外界物体的感知只能做到二维构图(面积) , 而不能像激光雷达那样通过电子扫描得到物体的三维构图(体积) , 以至于会出现对环境的误判 , “如果用一句话来形容这一情况 , 就是横看成岭侧成峰 。 ”王宇表示 。
但这并不代表着 , 出现“幽灵刹车”仅是硬件方面的问题 。
在车辆软件工程师李响看来 , 特斯拉会出现“幽灵刹车” , 本质上是感知与决策整体算法逻辑设计上的问题 。 一方面在于 , 特斯拉的开发人员没有正确设置决策阈值 , 导致车辆无法区分何时是真实危险情况或虚假警报 , 以至于发生误判 。
另一方面 , 特斯拉要实现对外部环境的决策正确 , 必须要基于足够强的算法 , 而要做到这一步 , 必须要有足够多的场景数据“喂”给人工智能来进行深度学习 , 但在李响看来 , 特斯拉的算法还不具备这一能力 , 这点从特斯拉频发的“刹车失灵”“幽灵刹车”等事件中都可以看到 。
据出行一客报道 , 同济大学汽车学院人车关系实验室汽车专家王小斌也表达了同样的观点:“如果特斯拉真的能做到汽车的摄像头与人类的感知判断相同且算法足够强大 , 理论上靠视觉方案就能实现全无人驾驶 。 但现在的难点是 , 特斯拉的算法能否很好地处理摄像头获取的信息 。 ”
根据以上分析 , 可以得到的一个结论——特斯拉会发生“幽灵刹车” , 与其选择纯视觉感知路线有一定的关联 。
在业内看来 , 特斯拉想要解决“幽灵刹车” , 其实也很简单 , 通过搭载激光雷达或毫米波雷达等多传感器 , 以便实现各种传感器交叉验证的目的 , 最大限度地保证对外界环境感知正确 。
此外 , 据王宇介绍 , 随着激光雷达行业正在向集成化发展 , 所使用的激光器等构件进一步减少 , 以至于目前一颗激光雷达的价格已经从之前上万元、乃至十万元以上降至万元以下 。
或许马斯克也看到了这些 , 正在尝试做出改变 。
据外媒Electrek报道 , 特斯拉在近日向美国联邦通信委员会(FCC)申请在其电动汽车中使用新的高分辨率雷达 。 据特斯拉在文件中介绍 , 这一雷达可能是一款“4D”成像雷达 , 其覆盖范围将是常规雷达的两倍 。