文章图片
文章图片
文章图片
文章图片
文章图片
文章图片
文章图片
文章图片
AI芯片主要承担推断任务 , 通过将终端设备上的传感器(麦克风阵列、摄像头等)收集的数据代入训练好的模型推理得出推断结果 。 由于终端场景多种多样各不相同 , 对于算力和能耗等性能需求也有大有小 , 应用于终端芯片需要针对特殊场景进行针对性设计以实现最优解方案 , 最终实现有时间关联度的三维处理能力 , 这将实现更深层次的产业链升级 , 是设计、制造、封测和设备材料 , 以及软件环境的全产业链协同升级过程 。
相比于传统CPU服务器 , 在提供相同算力情况下 , GPU服务器在成本、空间占用和能耗分别为传统方案的1/8、1/15和1/8 。人工智能服务器是AI算力基础设施的主要角色 , 在服务器中渗透率不断提升 。L3自动驾驶算力需求为30-60TOPS , L4需求100TOPS以上 , L5需求甚至达1000TOPS , GPU算力需求提升明显 , 芯片主要向着大算力、低功耗和高制程三个方向发展 。
本期的智能内参 , 我们推荐华西证券的报告《AI领强算力时代 , GPU启新场景落地》 , 解读GPU三大落地场景和国产GPU最新的发展趋势 。
来源 华西证券
_原题:
《AI领强算力时代 , GPU启新场景落地》
作者:孙远峰等
一、算力时代 , GPU开拓新场景广义上讲只要能够运行人工智能算法的芯片都叫作 AI 芯片 。 但是通常意义上的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片 。
AI芯片也被称为AI加速器或计算卡 , 即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责) 。 到目前位置 , AI芯片算力发展走过了三个阶段:
第一阶段: 因为芯片算力不足 , 所以神经网络没有受到重视;
第二阶段:通用芯片CPU的算力大幅提升 , 但仍然无法满足神经网络的需求;
第三阶段:GPU和和新架构的AI芯片推进人工智能落地 。
▲AI芯片算力发展阶段
目前 , GPT-3模型已入选了《麻省理工科技评论》2021年“十大突破性技术 。GPT-3的模型使用的最大数据集在处理前容量达到了45TB 。 根据 OpenAI的算力统计单位petaflops/s-days , 训练AlphaGoZero需要1800-2000pfs-day , 而GPT-3用了3640pfs-day 。
▲自然语言模型/会话式AI平台
AI运算指以“深度学习” 为代表的神经网络算法 , 需要系统能够高效处理大量非结构化数据(文本、视频、图像、语音等) 。 需要硬件具有高效的线性代数运算能力 , 计算任务具有:单位计算任务简单 , 逻辑控制难度要求低 , 但并行运算量大、参数多的特点 。 对于芯片的多核并行运算、片上存储、带宽、低延时的访存等提出了较高的需求 。
- 华为|华为任正非最新信件曝光:春天很快就会到来!
- GPU|天玑8000新机快了,相机的配置看上去挺不错,准备冲吗?
- 三星|三星手机Soc搭载AMD Radeon GPU曝光,运行频率超过苹果A15
- iPad|ipad平替电容笔推荐;2022最新性价比电容笔推荐
- apu|明年入门级装机可以不买显卡了,最新APU核显也能吃鸡单机
- 单片机|OPPO最新实验室曝光:与华中科技大学联合打造,将加速新技术研发
- 最新最全!31省份春节返乡防疫要求来了
- 高度计|美国C波段5G部署争执最新进展:联邦航空局发指令限制使用高度计
- 西宁最新返乡政策来了
- 全国31省份最新返乡政策汇总