芯片巨头正在偷偷研发这些新AI技术,不比拍照有意思( 二 )


文章图片
室内定位场景所需的信号数据标记比较复杂 , 通过射频感知的方法 , 使用弱监督学习能比较有效地节省成本、提升效率 。
嗯 , 现在老板只需要通过无线信号 , 就知道你在哪个办公室和同事摸鱼聊天了(手动狗头) 。
芯片巨头正在偷偷研发这些新AI技术,不比拍照有意思
文章图片
再来看看神经推理(NeuralReasoning)技术 。
事实上 , 这里的推理并不是指单纯的模式识别 , 而更像是教AI学会“逻辑推断” , 概念上和YoshuaBengio之前提到的system2(逻辑分析系统)有些相似 。
那么 , 神经推理和芯片有什么关系 , 可以应用在哪些方向 , 高通又进展到哪一步了?
据侯博士介绍 , 神经推理是一种将符号推理和神经网络优势结合起来的思路 , 让模型兼具并行性和串行性 , 而这个思路对于计算硬件而言同样具有借鉴性 , 目前高通已经利用自回归语言模型做出了一些首创成果 。
最后来看看量子AI技术 。
目前高通主要有进行两个方面的研究 , 一个是基于AI加速构建量子计算机 , 另一个是让AI更快在量子计算机上运行的新方法 。
其中 , 基于AI加速构建量子计算 , 主要研究方向在群等变卷积神经网络上 。
研究人员通过引进群等变卷积神经网络 , 提出了一种新的解码方式 , 比传统解码器运行效率更高、性能也更好 。
而高通登上ICML2021的一项新研究 , 还提出了一种基于量子场论 , 在光学量子计算中运行神经网络的新思路 。
芯片巨头正在偷偷研发这些新AI技术,不比拍照有意思
文章图片
如果未来真的能用量子计算运行AI , 那大模型快速运算也不是梦了 。
所以问题来了 , 高通正在进行的这些基础研究 , 究竟有没有落地的可能?
距离我们用上还有多久?技术之终极意义 , 还是要看向应用 。
实际上 , 高通AI研究关注前沿科技背后 , 更加重视的是这些技术具体如何落地 。
例如在早些年AI领域还在关注图像处理的时候 , 高通就已经在布局视频AI技术的落地了 , 并产生了不少相应的首创成果 。
包括在移动端将视频超分到4K100+FPS , 就是高通率先实现的 。
那么在这个过程中 , 高通是如何实现将AI论文落地到芯片应用中的呢?
这就得说回高通AI研究的三大布局:
基础研究 , 涉及量子AI、强化学习、群等变卷积神经网络等 , 着眼于遥远的未来 , 通常更具有基础性 。 平台研究 , 包括软硬件协同设计、AI模型效率工具包以及模型量化、压缩和神经架构搜索等 , 来实现最佳的能效、性能和时延 。 应用研究 , 是指利用AI基础研究和平台研究的成果在某些特定用例中 , 包含视频识别与预测、指纹图谱、图形深度学习、视觉质量提升等 。 芯片巨头正在偷偷研发这些新AI技术,不比拍照有意思
文章图片
一方面 , 高通一直以平台研究技术带动应用研究的落地 。
以模型量化为例 。
这是高通AI研究这几年钻研的核心技术之一 , 目的就是给AI模型做个“瘦身” 。
在实际应用场景中 , 由于电量、算力、内存和散热能力受限 , 手机使用的AI模型和PC上的AI模型有很大不同 。
在PC上 , GPU动辄上百瓦功率 , AI模型的计算可以使用16或32位浮点数(FP16、FP32) 。 而手机SoC只有几瓦功率 , 也难存储大体积AI模型 。
这时候就需要将FP32模型缩小成8位整数(INT8)乃至4位整数(INT4) , 同时确保模型精度不能有太大损失 。
芯片巨头正在偷偷研发这些新AI技术,不比拍照有意思