算法|算力大爆炸:万亿个!算法复杂度已超越人脑神经元数量

算法|算力大爆炸:万亿个!算法复杂度已超越人脑神经元数量
文章插图

编者按:本文来自微信公众号IT时报(id:vittimes),作者|王昕 范昕茹,创业邦经授权转载,图源:图虫。
“在数字经济时代,算力就像水和电一样,一定要成为一种可获得、可负担的资源。”华为轮值CEO胡厚崑在2021世界人工智能大会(下简称WAIC 2021)上表示,没有充足的AI算力就像没有水和电,会大大制约城市数字化的进程。
那么在AI时代,智慧城市、工业互联网、自动驾驶等领域的算力会由谁来承担呢?是深藏数据中心的云端算力,还是飞入寻常百姓家的边缘侧算力?未来世界中,算力会无休止增长吗?中国智能芯片行业会在“百花齐放”之后重新洗牌吗?
带着这一连串疑问,在WAIC 2021的智能芯片定义产业未来论坛,我们或许可以找到一些答案。
01即便制程不再微缩芯片性能还能提升1000倍对于算力与芯片之间的最基本关系,中国科学院院士、复旦大学教授刘明认为,芯片的发展最终还是要落实到算力上,而算力本身则直接来自于集成电路的发展。
在IC长远的发展历程中,微缩常常作为一个标志性的概念被提及。
刘明指出,在最好的时期,仅仅依靠工艺的微缩性,就可以给芯片性能带来快速提升,给算力带来巨大的增益。但这是否就意味着芯片只能依赖尺寸的微缩来提升性能?刘明的答案是否定的。在她看来,利用混叠技术提升宽带的例子就能很好地说明这一点。
当微缩不再成为芯片的限定词,未来芯片之路又在哪里?刘明认为,基础器件的变革和多元化技术的变革,都能为IC的性能带来进一步的提升。在IC现有的发展中,无论是材料的引进,器件结构的发展,还是光刻技术的出现,都在改变着微缩的基本手段,尤其是如三维异构集成这样多元技术的出现和协同发展,都将为芯片整体的性能提升带来很好的增益。
即便不进行微缩,据刘明预测,技术革新仍然能让芯片的性能提升50到500倍,甚至1000倍。
当微缩的空间慢慢变窄之后,产业界也会采用新的策略来评价新一代技术。性能、功耗、面积、成本以及新一代技术进入市场的时间,将决定这一代技术是否值得推广和研发。而这可能会成为IC产业在不追求尺寸微缩后的新战略。
除此之外,刘明还认为,存储计算架构的变革也是智能芯片未来发展的一个新视角。对存储来说,越靠近CPU速度越快,而容量越小;越远离CPU,容量越大,速度越慢。这就意味着,数据的搬运不仅仅在处理和存储之间,还在不同的存储层级之间进行,这样一来,频繁的数据搬运带来了延迟功耗。
刘明提出:“通过将传统以计算为中心的冯氏架构变换成一种新的计算方式,把部分算力下通到存储,在拥有足够好性能器件支撑的前提下,就能减少功耗和延迟,提升芯片的算力。”
02通用、专用芯片此消彼长?在芯片世界中,通用型芯片和专用型芯片是被粗放划分的两大领域,是泛在化、兼容性强、效率更低的通用型芯片主导,还是分门别类针对应用场景开发更专注和高效的芯片,一直是业内争论的焦点之一。
上海天数智芯半导体有限公司董事长兼CEO刁石京表示,人工智能发展过程中,算法还在不断完善,新的应用层出不穷,算力必须有能力匹配灵活多变的应用场景,此时云端采用通用型芯片的算力价值就得到了体现。
刁石京举例,PC行业经历了从Intel、AMD等通用型芯片向GPU专用型芯片的转变过程,未来随着市场成熟,大规模应用浮现,应用侧、终端侧的专用型芯片将逐渐开始大行其道。
上海燧原科技有限公司创始人兼CEO赵立东认为,AI还处于起步阶段,由于GPU在加速图形渲染领域的长期应用,其并行处理能力等顺理成章地被移植到AI领域。如今,深度学习、机器学习的场景越来越丰富,通用芯片和专用芯片的关系会发生动态变化。