苹果|超级重磅——小米自动驾驶技术研判(2022年8月)( 二 )


CNOA状态研判视频第一段 , 为城区领航辅助状态 , 即所谓CNOA(City Navigate on Autopilot);也就是大家最想要的状态:打开车载地图导航 , 选中目的地 , 汽车全自动开过去 。


因为进度第一 , 所以小米的CNOA必然强依赖高精地图;注意观察右下角的可视化效果 , 路面的3D点云异常稳定 , 不太可能是实时建模 , 推测为高精地图的视觉重建 。

但是小米的感知部分写的真不错 , 请注意这里的可视化效果 , 对其他车流的识别重建 , 都没有发生可感知的剧烈抖动 。
说明车辆的感知系统非常稳定 , 能够精准的抓住目标 , 而且3D重建的可视化平滑算法做的到位;而且模型比较优雅 , 流畅度目测也是很不错的 , 我喜欢 。


还注意套在3D模型上的三维框框 , 这也是基操了;之前某车厂的自动驾驶演示视频 , 对目标识别是二维框框 , 业界同行很是嘲笑了一番 。




避让大型车和加塞车Cut in , 常规操作 , 小米测试车感知条件远超家用车 , 能做到不稀奇 , 做不到才是问题 。





NOA的标志性操作——自我决策上匝道和主动变道 。




这里小米的规控做的不错 , 变道策略不是死板的看前车距离 , 而是看相对速度;左车道尽管还没超过自己的车道 , 但是系统观测到它相对速度更快 , 就马上变道 , 提高通行效率 。
这个策略还是比较聪明的 , 但是视频加速太快 , 看不出来变道控制的顺滑程度 。

风险避让 , 正常操作;大家玩命升级感知系统 , 搞出来Lidar+环视+毫米波的多层感知 , 就是干这个的 。



无保护掉头 , 这是个高难场景 , 需要感知系统全力工作 , 同时决策系统要兼顾通行效率和安全性——不能拐的太慢 , 不然你这辈子都掉不过来;不能拐的太快 , 不然要出事 。

得益于车顶极其优越的观测位置 , 测试车的感知系统提供了360度全方位的信息 , 这个掉头比较顺滑 。

但如果装在小米的量产车上 , Lidar最多只能提供前半球观测信息 , 毫米波也有一堆死角 , 这种场景就得纯靠环绕视觉感知了;这就是我前面所说 , 小米需要在量产车上解决的工程问题 。


有红绿灯的可视化(右下角) , 但是不知道是V2X发回的信息(跑在武汉自动驾驶示范路段) , 还是纯靠视觉识别的信息 。
如果是后者 , 那么小米的技术状态还是可以的 。


避让公交车(大车) , 基操了



这段很有意思 , 注意看可视化信息 , 小米测试车已经建立了完善的行人、两轮车识别模型 。 能识别、能避让、能3D重建 , 进度不错 。



复杂多路况左转 , 不过有红绿灯 , 难度中等吧 。

【苹果|超级重磅——小米自动驾驶技术研判(2022年8月)】



这段很有意思:得益于位置优越的感知系统 , 小米测试车第一时间发现了被SUV遮挡的电动车 。
这个识别非常迅速 , 决策继续往前开也非常果断 , 不知道量产车还能否达到如此惊艳的水平 。



行人避让 , 基操 。



环岛行驶 , CNOA的基操 。



我朝马路自有国情在此!超繁忙路段 , 人车交杂 , 小米测试车表现得很稳 , 规控做的不错 。




无保护右转这里 , 我起初以为出现了个常见Bug——也就是识别到了红圈的老大哥 , 没及时停下来 , 都开到人前面才停下 。