苹果|廉颇老矣?推测一下苹果A16芯片有多大提升( 三 )



来源:极客湾
上面这张图是极客湾此前所做的GPU能耗比测试(横轴为功耗-单位瓦特 , 纵轴为性能-单位fps;越往左、越往上越好) , 上方红色的那三个点就是苹果A15的曲线预计会经过的点 。
虽然我们认为这个测试存在问题(因为GFXBench测试的层级太高 , 测出来的都是系统层面的数据 , 而非芯片——更无法精准到SoC之上的GPU , 尤其是功耗) , 但仍然能说明系统层面图形性能和功耗的实际情况 。 (这张图没有联发科天玑9000 , 天玑9000在这项测试里的水平和A14很接近)
还有个拍照 , ISP和NE在这代iPhone 14 Pro上 , 苹果花了比较大篇幅去谈的其实是拍照 。 所以苹果才说A16的着力点有三个:能效、显示、摄像头 。 毕竟iPhone 14 Pro的主摄换用了4800万像素的CIS
以前苹果一直坚持用1200万像素的传感器 , ISP需要做包括Deep Fusion之类多帧堆栈之类的操作 , 数据量级和4800万就不一样 。 所以ISP的性能提升是必须的(以及该流程需要Neural Engine参与 , 但NE性能提升幅度也不大) 。

比较值得一提的是 , 这次苹果引入了一种叫Photonic Engine的特性:从苹果的描述来看 , 这是一种将多帧堆栈流程在pipeline上提前的方案(苹果在官网提到这项技术“能够让Deep Fusion更早地作用于未压缩的图像流程” , 所以是提前到RAW域?) 。
而且在应用了Photonic Engine以后 , 加上传感器更大(以及光圈更大) , 低光环境下所有摄像头都最高提升2-3倍表现 。 非Pro版的iPhone 14也支持Photonic Engine , 不过不Pro自然也就没有4800万像素了 , 1200万像素用A15就够了——合情合理…
成像系统就技术点部分 , 能聊的其实不多 。 比如4800万像素的四合一技术(quad-pixel sensor) , 索尼都用很多年了(不过这颗传感器应当还是苹果定制的) 。 不过高像素可以给出更多的数据资源 , 引出更多玩法 。

高像素的优势 , 过去的文章不止一次地谈到过 , 包括高像素超采样(仍然输出1200万像素照片)以后能实现更高的锐度和信噪比;更重要的是可以截幅——这次苹果还把截幅当重点功能做了宣传 , 就是提到2倍变焦很高的可用性 。 (iPhone 14系列的3摄系统中实际没有2倍焦距的镜头)
实质主要是因为有了4800万像素资源 , 所以画面放大2倍 , 依然可以做到清晰(应当可还涉及到更优的算法) 。 苹果称其为“光学质量般(optical-quality)的2倍长焦”;甚至还给2倍变焦标了数据 , 如上图所示 , 这可不就是主摄数据么?说是这次的2倍长焦比以前任意一代iPhone的2倍长焦都拥有着更大的像素和更快的光圈 , 市场水平很高 。

有点儿偏题了 。 摄像头并非本文要聊的重点 。 不过以上特性的实现 , 还是要依托于ISP和Neural Engine来做Deep Fusion和各种后处理嘛 。
另外值得一提的 , 不仅是4800万像素数据量增多 , 图像传感器这种Quad Bayer阵列 , 和传统拜耳阵列滤镜排列是不同的 。 那么对于在拍照中搞机器学习的选手而言 , 也就需要新的模型 。 虽说别家手机厂商应用此类传感器时间也不短了 , 但苹果还是头一次 。 而且我们始终觉得 , 苹果掌握软硬一体的全流程能力 , 则这类Quad Bayer阵列的数据利用水平理论上也应当比别家更高才对 , 比如说将re-mosaic流程给去掉之类的(这是随便说的)…
再有当然就是新系统支持了Cinematic模式的视频录制以4K 24fps格式进行;还有杜比视界HDR最高4K 60fps视频拍摄 , 以及新的防抖(Action运动模式)支持 , 都需要算力的支持 。