百度|百度最新无人车技术低调发布!6位大牛 人均至少T11( 六 )


因此,未来车载计算系统一定是相对开放,能够给用户提供高算力、高通用,可以满足客户个性化需求的计算系统 。
未来,昆仑芯也会考虑面向高阶自动驾驶系统定制车规高性能的SOC 。
商业落地:L4降维真的能走通?
百度智能驾驶事业群组技术委员会主席王亮,介绍了Apollo在L2、L4方向的商业化进展,以及如和将两种不同的技术栈,统一在一个数据闭环之中 。
百度L4自动驾驶运营测试里程累计超过4000万公里;萝卜快跑在多个城市开启对市民的运营,累计订单超过140 万;今年8月百度在武汉和重庆国内首次实现“全无人商业化运营”,这是中国自动驾驶历史上的重要里程碑 。
百度|百度最新无人车技术低调发布!6位大牛 人均至少T11
文章图片

辅助驾驶方面,目前国内市场智驾产品以高速领航辅助驾驶和记忆泊车为主 。有数据显示,中国居民日常出行中,城市通勤占比在70%以上,有城市自动驾驶能力的L2+产品将是未来市场的主流趋势 。
百度将在2023年面向市场推出一款L2+领航辅助驾驶旗舰产品ANP3.0,将支持复杂城市道路场景,并且衔接融通高速和泊车场景 。
智能驾驶计算单元,采用的是百度自主研发的智驾域控制器,搭载了2颗英伟达Orin-x芯片,AI算力为500 TOPS;传感器方面,部分搭载了800万像素高清摄像头,视距可以达到400米 。同时搭配半固态激光雷达,每秒产生百万以上的点云 。
ANP3.0以视觉方案为主,同时系统也搭配激光雷达 。ANP3.0视觉、激光雷达两套系统独立运作、低耦合 。
百度|百度最新无人车技术低调发布!6位大牛 人均至少T11
文章图片

ANP3.0视觉感知技术始于2019年启动的Apollo Lite项目,采用了“单目感知”加“环视后融合”的技术框架 。
今年百度对视觉感知框架进行了升级,推出了第二代纯视觉感知系统Lite++ 。
Lite++通过Transformer把前视特征转到BEV,在特征层面对相机观测进行前融合后,直接输出三维感知结果,并融合时序特征实现运动估计Learning化;模型设计层面,基于transformer结构,实现时空特征融合 。
在空间融合阶段将位置编码变换从全局BEV空间转换到局部相机坐标系,消除相机内外参差异带来的差异 。时序上尽可能多的融合主车运动与多帧信息,提升障碍物检测稳定性 。同时基于时序特征,障碍物的速度、意图、未来轨迹预测等关键信息都可以进行端到端的输出 。
此外,Lite++对后处理的多相机融合依赖更低,算力需求更轻,泛化性更好 。
百度|百度最新无人车技术低调发布!6位大牛 人均至少T11
文章图片

ANP3.0的目标是让自动驾驶能够随时随地的开启,技术路径是用好百度多年在高精地图领域积累的优势;结合百度对自动驾驶算法的理解,定义了为智驾规模化泛化而生的“轻量化”自动驾驶地图 。在降低地图制作成本的同时,通过建设在线地图学习能力,用算法应对现实变更、冗余地图的标注问题 。
目前ANP3.0已进入北上广深多地泛化测试阶段,将在2023年夏天随着第一个客户车型上市与大家见面 。
随着L4规模化商业试运营的到来和高级辅助驾驶产品的普及,百度如何利用L2+产品反哺L4技术,加速Robotaxi的规模化商用?
百度|百度最新无人车技术低调发布!6位大牛 人均至少T11
文章图片