手机影像的「下一步」在哪里?华为 P50 系列或许是最好的答案( 二 )


有关超广角镜头视场角这里多说几句 。 如果单从取景范围的维度考量 , 当然是视场角越大越好 , 但随着视场角变大 , 图片边缘畸变情况也会愈加明显 。
在超广角镜头畸变问题处理上 , 目前行业比较常见的方案有两种 , 其一是较为普遍的算法裁切 , 实现难度和成本较低 , 不过会损失掉一部分图片素质;另外一种便是华为Mate40Pro+所采用的物理自由曲面镜头 , 效果更好 , 当然也更贵 。
但无论哪种解决方案 , 其实都存在边界 , 保证成像素质的基础上提升视场角 , 才最合理 。
如何突破物理边界 , 做到「所见即所得」
如文章开头我们所说的那样 , 过去很长一段时间 , 硬件水平很大程度上拖累了手机影像的发展 。 但随着上下游厂商的共同努力 , 其实硬件能力已经足够强大 , 虽然尚有进步空间 , 不过想要在短时间内取得大的突破 , 确实比较困难 。
这次华为并没有在提升硬件水平上过于「钻牛角尖」 , 而是选择进一步加强软硬件融合度 , 借助算法最大化硬件能力 。 P50系列影像系统真正厉害的地方 , 是用到了全新计算光学技术(XDOptics)和原色引擎技术 。 华为称 , 这两项技术的加入 , 可以大幅提升图像的画质和色彩表现 , 能达到还原人眼甚至超过人眼所看到的真实效果 。
其中 , 光学计算技术主要针对画质部分 。
大家知道 , 理想光学系统的特征 , 是要求由同一物点所发出的光线都能汇集到同一像点上 。 但实际几何光学系统其实没办法实现理想状态 , 光线在经过光学系统后 , 会产生包括球差、彗差、像散、场曲等在内各种像差问题 , 计算光学技术的核心诉求 , 正是用来解决以上这些问题 。
事实上 , 由于对于生产厂家来说 , 测量镜头模组光学特性并不是一件困难的事情 。 而有了光学计算技术的支持 , P50系列便可以根据已知镜头模组光学特性 , 利用算法预测出光路导致的像差损失 , 然后通过算法还原镜头原本应该具备的成像效果 。
从华为那里我们了解到 , 如果都按照进入光学元器件损失50%图像信息作为参考基准 , 之前单纯依靠后期处理的情况下 , 大概只能做到60%的原始信息恢复 , 其它已经损失掉的光线信息彻底无法找回;而有了计算光学技术之后 , 则能将原始图像信息恢复到81%左右 。
对比以上数据来看 , 此项技术所带来的图像素质提升幅度还是很明显的 。 最重要的地方在于 , 此种解决方法无需对硬件本身去做调整 , 便可以实现以往在更高规格硬件上才可以获得的高素质图像效果 , 这对于机身内部空间极其宝贵的手机产品来说 , 无疑有着重要意义 。
保证被拍摄物体色彩准确性的任务 , 则交给了原色引擎 , 其也是华为P50系列XDFusionPro图像引擎和去年华为P40系列上XDFusion图像引擎之间最主要的区别所在 。
原理上 , 华为P50系列原色引擎模拟了人类感知色彩的流程 。 简单来讲 , 拍摄时 , 手机会先利用图像传感器和多光谱传感器获取周围环境信息 , 然后将RGB信号转成华为自己的CIEXYZ信号输送到色适应模型进行处理 , 最后再做色彩增强 , 以此来保证白平衡的准确性 。
这里有几个值得关注的点 。 首先 , 华为P50系列的多光谱传感器由上代的8通道提升到了10通道 , 使得环境光谱分辨能力较上代提升了50% , 平均色相准确度提升了20% , 可以理解为前期环境光信息捕捉准确度更高 。
此外 , P40系列时 , 其采用了400种颜色色卡来帮助相机进行颜色校准 , 到了P50系列时 , 华为将色卡数量增加到了2000种 , 覆盖了P3广色域的大部分区域 , 几乎日常生活中经常会遇到的拍摄场景它都能轻松应付 , 具备强大的标准色彩转换能力 。