一场迟到但精准的反击:英特尔GPU战略浮出水面
当整个科技圈还在热议“谁还能撼动英伟达的王座”时,英特尔悄悄完成了最关键的一步——它不再只谈CPU、不说GPU,而是正式宣布:自己要造AI GPU了。
这不是一次模糊的路线图预告,也不是PPT上的远景规划。在旧金山思科AI峰会上,英特尔CEO陈立武(Lip-Bu Tan)以罕见的笃定语气确认:英特尔已全面启动GPU自主研发与量产计划,并将聚焦于AI训练与推理的核心场景——尤其是那个让所有大模型公司夜不能寐的痛点:内存墙(Memory Wall)。
关键人物已就位:一支“全明星级”GPU攻坚队
英特尔没有从零起步。它选择了一条更高效的路径:重金集结顶尖人才,直击AI芯片最硬核的架构层。
- 总指挥官是凯沃尔克·凯奇奇安(Kevork Kechichian)——这位前Arm数据中心高管,去年9月空降英特尔,如今执掌数据中心事业部,并直接统领GPU战略落地;
- 首席架构师则是埃里克·德默斯(Eric Demers)——高通13年老将、移动GPU与AI加速器设计权威,今年1月已低调加入英特尔,负责定义第一代AI GPU的底层架构;
- 更重要的是,这支团队并非孤立作战。它深度整合了英特尔在先进封装(如Foveros)、高带宽内存(HBM)集成、以及18A制程节点上的自研能力——这些,恰恰是当前英伟达GPU难以快速复刻的“物理级护城河”。
不拼参数,拼解法:英特尔的差异化逻辑
陈立武在演讲中一针见血:“今天的GPU不是算得不够快,而是数据搬不动。”
他指出,主流AI加速器正深陷“存储危机”:HBM带宽吃紧、内存延迟高企、数据在芯片内外反复搬运,导致真实计算效率不足40%。而英特尔的破局点很清晰:
✅ 把内存‘焊’进GPU里——依托IDM 2.0模式,自主整合HBM堆叠与封装;
✅ 用18A工艺重构互连密度——提升芯粒(chiplet)间数据吞吐,缓解带宽瓶颈;
✅ 专注推理优化与能效比——不盲目对标H100的峰值TFLOPS,而是瞄准企业客户更关心的每瓦特推理吞吐量(tokens/sec/W)和部署成本。
这背后,是一个清醒的战略转向:英特尔不再执着于“复制英伟达”,而是用系统级工程能力,解决英伟达生态暂时顾不上的现实问题。
红海中的蓝海:瞄准2025–2026年的AI基建换代窗口
陈立武甚至给出了明确的时间锚点:他预测,存储芯片短缺将持续至2028年——这意味着,未来三年,任何能缓解内存压力、提升数据搬运效率的AI芯片,都会成为云厂商和大模型公司的“刚需替代方案”。
而英特尔的野心不止于卖芯片:GPU将成为其18A先进制程商业化落地的关键载体,同时反哺代工业务(IFS),构建“设计—制造—封装—软件”全栈AI算力生态。
换句话说,这是一场以GPU为支点,撬动整个IDM 2.0转型的战役。
结语:不是挑战者,而是“第二选择”的塑造者
英特尔入局GPU,从来不是为了在发布会上喊一句“我们来了”。它带着被市场低估多年的先进封装、内存集成与制程技术,选择在一个所有人都焦灼于“算力饥渴”的时刻,冷静地问了一句:“如果瓶颈不在算力,而在数据流动,你还需要一张更大的卡吗?”
答案,或许正藏在下一代英特尔GPU的硅片设计里。