2021 华为开发者大会后,华为给我看了看未来车的样子( 四 )


在最上端显示区域 , 我们可以看到被标注出的咖啡厅、停车场、购物中心这些商铺信息 。
起初我觉得这是一个复杂的工程 , 因为需要地图信息与实时定位做到非常精确的匹配 , 所以体验可能会比较差 。 但工作人员介绍到 , 这个「框框」的位置会比较精确 , 不太会出现比较滞后的延迟的问题 。 并且这个功能已经给车企开放了 , 比如在上汽R品牌的ES33上 , 华为便提供了这个功能接口 , 所以我们可以期待一下 , 上汽R品牌 , 会不会把这个功能落地出来吧 。
当然了 , 其实最影响这套AR-HUD最终体验的其实还是取决于亮度和分辨率 。 华为目前可以做到最高12,000nits以上的亮度 。 在VR/AR领域中 , 分辨率并不是我们常说的1080、2k、4k这种 , 而是需要看PPD(PixelsPerDegree)角分辨率的大小 , 理论上 , 这个数值越大越好 , 华为这套AR-HUD的PPD在100左右 。
但在实验室的实际体验环境 , 我使用投影功能看了电影、打了游戏 , 从我实际的感受来看 , 分辨率相比于现在4k、8k的显示器来说 , 还是有很大提升空间 。
工作人员还提到 , 整套HUD系统 , 会根据DMS追踪眼睛来调节对应的可视角度 。 对于未来的3D-ARHUD , 华为希望让车内每一块玻璃 , 都成为信息传递的介质 。
当然了 , 目前看华为这款还没有应用的AR-HUD也让我产生了一些疑问 , 这也应该是所有AR-HUD量产后可能会面临的问题:比如 , 如何通过亮度变化、内容显示布局、可视角度 , 来制定显示策略 , 让驾驶员在各种场景下的实际驾驶可以更安全而不是被妨碍视线 。
辅助驾驶的感知硬件
2021 华为开发者大会后,华为给我看了看未来车的样子
文章图片
在未来的感知硬件规划上 , 除了高像素摄像头、4D毫米波雷达、激光雷达外 , 华为还规划了红外摄像头的感知路径 。
因为目前 , 摄像头暴露出了自身的一些缺陷 。 比如 , 在夜晚极限暗光场景、雨雪大雾天气等比较极端的场景下 , 摄像头的感知能力会受到较大影响 。 而红外摄像头通过热辐射成像 , 传感器将在夜晚照常工作 , 同时面对雨雪大雾甚至是沙尘暴天气 , 都有比较强的穿透力 。
但目前这套方案的成本还是比较高的 , 而且对于感知融合算法要求会更加严苛 , 最重要的是 , 这属于偶发的极端场景 , 所以这个东西上车 , 可能还需要等激光雷达、4D毫米波雷达在算法中磨合好了之后 。
针对未来技术和成本的不断优化 , 华为还预测了未来传感器的形态发展路径 , 这一块其实各家的思路都差不多 , 但是我们要注意到 , 华为在领域广度上的优势 , 会让华为在传感器的集成化上 , 具有优势 。
天线分布式部署+集中计算比如现在毫米波雷达 , 前端天线和后端信号处理、感知处理是合为一体的 。 但后期可以直接通过切分处理 , 将前端感知传输到后端的域控制器进行处理 , 同理激光雷达也是这个演进方向 。
车身融合部署这个趋势其实是非常确定的 , 并且很多厂家都已经做出努力了 , 比如已经挂掉的拜腾在K-Byte概念车的两侧 , 便集成了可伸缩的激光雷达 。 未来我们应该会看到将激光雷达集成在大灯上 。 再比如车外的天线 , 可以集成GPS、4G/5G和FM信号 。
贴片式传感器这个是终极构想了 , 因为沿着硬件小型化、集成化的思路走到底 , 传感器的形态会趋近于「扁平」状 , 并且追求即插即用 。 微透镜阵列、智能蒙皮/共形天线、硅光技术等 , 可能会成为实现上述构想的技术突破口 。
写在最后
在这次HDC上 , 我看到华为发布了更多提供给开发者使用的开发工具 , 并且开发者已经可以在HarmonyOS中获得收益 , 得到认可 。 而且HarmonyOS的激活设备和使用人数已经说明 , 鸿蒙的生态建设初步形成 , 这对于鸿蒙和华为来说 , 都是一个非常好的开端 。