英特尔|全球IT需求大爆发的机会,Intel才不会浪费( 四 )


兼顾多种使用场景的设计从根源上保证了用户使用过程中的灵活性 。 未来通过与英特尔自己本就十分灵活的CPU组合 , 数据中心显卡将会在多种场景中发挥出自己最高的效能 。
最后是IPU(基础设施处理器) , 谷歌和Facebook自身的研究表明 , 碎片化的处理需求实际上会占到CPU使用率的22-80% 。 这些碎片化的请求占用了CPU的“时间” , 影响CPU发挥出最大的处理能力 。


为了解决现实中的性能浪费与处理请求 , 英特尔联合Google等大型客户 , 共同开发IPU(基础设施处理器) 。 核心思路就是把存储虚拟化、网络虚拟化、安全协议加速器、日常存储和网络功能剥离出来 , 交给更适合碎片化处理需求的专用处理器来完成 。 英特尔为此也给出了自己的发展计划 , 将在 2024年交付400GB 版本的产品 , 最终要在2025-2026年实现800GB处理能力的产品 。
全力打造驱动下一次变革的生态
如果说在“传统”的CPU产品之外的众多硬件更新已经可以说明创新的决心 , 那么英特尔在生态上的规划和投入就是帮助产业和客户享受到半导体创新推动力的关键 。
就以英特尔此次峰会上发布的AI处理器、GPU、CPU为例 , 这些新产品实际上都可以通过英特尔面向异构计算的统一编程架构oneAPI进行开发 , 比如英特尔数据中心GPU Arctic Sound-M , 就可以利用oneAPI工具包和其中的开放软件堆栈 , 包括面向全堆栈流媒体编解码和分析、云游戏、云端推理、全堆栈虚拟桌面基础架构支持的多种开源软件 , 借由一套完整、可靠的工具包来完善现有编程语言和并行计算模型 , 在英特尔? 至强? 处理器和英特尔数据中心GPU之间无缝运行 , 从而释放各种处理器的全部性能潜力 。
在基础的编程体系基础上 , 英特尔在本次峰会上还公布了一个全新的“阿波罗计划” , 通过与埃森哲合作 , 这个计划将为企业提供30多个开源人工智能参考套件 , 这些解决方案经过专门的优化设计 , 使人工智能更容易被在本地、云和边缘环境中落地应用 。 第一批阿波罗计划工具包将在未来几个月内发布 。
此外 , 英特尔首次进行了其软件基础设施计划Endgame项目的概念演示 。 应用程序可以充分利用这个软件基础设施层 , 使设备能利用网络中其他设备的计算资源 , 从而提供始终可用、低时延、连续的计算服务 。 例如 , 在一台设备上运行要求苛刻的GPU工作负载时 , 可以感知并利用来自更高性能计算设备上的额外图形处理算力 , 以增强用户体验 。
英特尔还宣布推出Intel On Demand服务 , 可以满足企业不断变化的工作负载需求 , 实现产品可持续发展 , 并把握在靠近数据的地方扩展系统的机会 。 目前 , 英特尔推出了一种新型消费商业模式 , 以使客户能将其基础设施与业务需求相匹配 , 并通过包括如HPE GreenLake、联想TruScale和PhoenixNAP的裸机云在内的精选合作伙伴提供服务 。
从硬件跨越式创新基础上还在软件配套与生态建设积极跟进的势头来看 , 提供数字化转型中IT设施创新所必需的软件和开放生态系统支持 , 对于拥有17000名软件工程师的英特尔来说 , 显然不是什么难事 。
加速前行的英特尔
作为全球IT与半导体发展的历史领导者 , 英特尔在过去几年里因为制程的原因饱受争议 。 去年年初随着新CEO帕特·基辛格等一众技术型高管的回归 , 英特尔再度展现出了当年锐意创新的气势 。
帕特·基辛格上任第一个月就提出的IDM2.0计划 , 不仅重拾了英特尔发展芯片制造的决心 , 同时也给出了英特尔在全球半导体行业中的出路:在制造自己产品的同时 , 也为外界代工 , 也找外界为自己代工 。 再次全力推进的半导体制程更新 , 让英特尔再次回到了能够与台积电、三星掰手腕的台面上 。