为了克服现下大型神经网络模型一跑就要大量耗电的弊端|神经拟态芯片与人脑设计

为了克服现下大型神经网络模型一跑就要大量耗电的弊端 , 德国与瑞士研究者在仿照人脑架构的神经拟态芯片上获得突破 , 有望以此芯片用当下千分之一的能耗运行未来大型AI 。
作为如今最成功的人工智能算法 , 人工神经网络 , 可以松散地模拟了人脑中真实神经网络的复杂链接 。
不过与人脑的高能效相比 , 实在是太费电了 。
为了克服现下大型神经网络模型一跑就要大量耗电的弊端|神经拟态芯片与人脑设计
文章图片
于是 , 神经拟态计算应运而生 , 这种技术更贴近模仿了人脑的运作机理与物理定律 。
然而 , 由于器件失配难题 , 模拟神经元的质性会与设计略有不同 , 且电压和电流水平在不同的神经元之间也有差异 。
相比之下 , AI算法的训练则是在具有完全一致的数字神经元的计算机上完成的 。
因此 , 实际在神经拟态芯片上运行时 , 经常会出现「水土不服」的问题 。
为了克服现下大型神经网络模型一跑就要大量耗电的弊端|神经拟态芯片与人脑设计
文章图片
2022年1月在美国国家科学院院刊上发布的一篇论文 , 揭示了绕过此难题的一种途径 。
为了克服现下大型神经网络模型一跑就要大量耗电的弊端|神经拟态芯片与人脑设计
文章图片
论文链接:https://www.pnas.org/content/119/4/e2109194119
由瑞士弗雷德里希米歇尔生物医疗研究所的研究者弗里德曼·曾克 , 与德国海德堡大学的研究者约翰内斯·希密尔联合组成的团队 , 在脉冲神经网络这一类型的AI算法上获得新进展 。
脉冲神经网络使用模仿人脑中的特色脉冲交流讯号 , 可以在神经拟态芯片上运行 , 学会如何代偿芯片中的器件失配 。
此论文是AI迈向神经拟态运算的显著一步 。
模拟神经网络
与现有AI运行设备不同 , 神经拟态计算并不将数据在长间隔距离的CPU与存储卡之间搬运 。
神经拟态芯片设计模仿果冻般人脑的基础架构 , 将计算单元(神经元)置于存储单元(连接神经元的突触)旁边 。
为了让设计更像人脑 , 研究者将神经拟态芯片结合模拟计算 , 如此能像真实神经元一样处理持续不断的信号 。
为了克服现下大型神经网络模型一跑就要大量耗电的弊端|神经拟态芯片与人脑设计
文章图片
这样产出的芯片 , 与现下依赖处理0与1的二元基础信号的数码计算模式和架构 , 有显著不同 。
以人脑作为设计指南 , 神经拟态芯片承诺有朝一日终结AI等大数据量运算工作的高耗能 。 不幸的是 , AI算法在神经拟态芯片的模拟版本上运行效果不佳 。
这是因为器件失配的缺陷:在生产过程中 , 芯片里模拟神经元的微型组件大小出现不匹配 。
由于单个芯片不足以运行最新的AI训练过程 , 算法必须在传统计算机上进行预训练 。
但之后将算法转输到芯片上时 , 一旦遇上模拟硬件不匹配的问题 , 算法就两眼一抹黑了 。
为了克服现下大型神经网络模型一跑就要大量耗电的弊端|神经拟态芯片与人脑设计
文章图片
基于人脑设计的计算模式是模拟计算而非数码计算 , 这点差别微妙而关键 。
数码计算只能有效呈现人脑脉冲信号的二元性方面:脉冲信号作为一道冲过神经元的电信号 , 状态具有二元性 , 要么输出了 , 要么没输出 , 这就是0与1的区别 。
为了克服现下大型神经网络模型一跑就要大量耗电的弊端|神经拟态芯片与人脑设计
文章图片
不过事实上因为人脑细胞中有电压变化 , 当细胞内电压超过比细胞外电压高到一定程度的特定阈值 , 就会输出脉冲 。
如此一来 , 脉冲是在一定时段内持续不绝地输出的 , 而且神经元决定输出脉冲的状态也是持续不绝的 , 这其实是一种模拟信号的状态 。