标题:15倍速碾压GPU!OpenAI豪掷百亿押注“晶圆巨兽”,AI算力格局或将重塑


一场改变AI游戏规则的豪赌

科技圈迎来震撼一击:OpenAI正联手AI芯片明星企业Cerebras,斥资超100亿美元(约697亿元人民币),打造全球规模最大的AI推理平台。这不是一次普通的采购,而是一场旨在颠覆现有算力秩序的战略布局——目标直指英伟达长期主导的GPU帝国。

从2026年起分阶段部署,到2028年全面落地,该项目将累计部署750兆瓦的Cerebras晶圆级系统,堪称AI基础设施史上的“超级工程”。而其背后的核心武器,是一种被称为“晶圆级巨芯”的怪兽级芯片。


晶圆变芯片:把整个硅片变成一块“超级大脑”

传统AI芯片受限于制造工艺,往往需要将多个小芯片拼接成大算力模块,但这种做法带来了严重的互联延迟与功耗问题。而Cerebras的解决方案简单粗暴却极具颠覆性:直接用一整片晶圆做成单颗芯片

这块“巨无霸”芯片集成了惊人的 4万亿个晶体管,面积相当于数百个常规GPU之和。更重要的是,它把计算单元、内存和高速带宽全部集成在同一块硅片上,彻底摆脱了多芯片通信的瓶颈。

结果是什么?据OpenAI实测数据:在运行大型语言模型时,Cerebras系统的响应速度可达传统GPU方案的15倍。对用户而言,这意味着从“等待几秒”到“几乎瞬时回应”的体验飞跃——尤其是在编程辅助、实时对话等高负载场景中,性能差距已非线性提升,而是质的跨越。


阿尔特曼早有布局:这场合作,早已埋下伏笔

这场重磅合作并非突然发生。事实上,OpenAI CEO萨姆·阿尔特曼本人就是Cerebras的早期个人投资者之一。两家企业早在2017年就曾探讨合作可能,彼时OpenAI刚成立不久,而Cerebras也才刚刚起步。

法庭文件披露,OpenAI长期以来一直在寻找比英伟达更高效、更具成本优势的替代方案。过去一年间,这家公司动作频频:
– 联合博通开发定制ASIC芯片
– 采购AMD最新一代MI450加速器
– 如今再重仓Cerebras

这一系列操作清晰勾勒出其战略意图:构建多元化的算力底座,降低对单一供应商的依赖,尤其是在推理环节——这个直接影响用户体验和商业变现的关键战场。


算力即收入:为什么AI公司越来越像“电厂”?

“算力直接决定我们的收入潜力。”这是OpenAI基础设施负责人Sachin Katti的原话。他进一步指出:“过去两年,我们的计算能力每年翻倍,收入增长也同步攀升。”

这句话揭示了一个残酷现实:今天的AI巨头,本质上是“算力运营商”。谁能在单位时间内处理更多请求、提供更快响应,谁就能赢得市场、留住用户、实现变现。

工程师反馈显示,现有硬件在面对复杂推理任务时已显疲态。正是这种“不够快”的焦虑,推动OpenAI果断引入Cerebras这套前所未有的系统。


Cerebras的逆袭:从IPO折戟到估值飙涨三倍

对于Cerebras来说,这笔订单不仅是技术认可,更是商业转折点。这家曾因激进设计被质疑“无法量产”的公司,如今已手握OpenAI、Meta、IBM以及阿布扎比G42等顶级客户。

据《华尔街日报》报道,Cerebras正洽谈以220亿美元估值融资10亿美元,相较此前81亿美元的估值,接近翻了三倍。尽管它曾在2024年提交IPO申请后选择撤回,但如今商业化路径已然清晰。

截至目前,公司累计融资已达18亿美元,新一轮资金注入后,或将开启新的扩张周期。


AI竞赛进入新阶段:答案要快,更要“说出口就来”

这场合作的意义,远不止两家公司的共赢。它折射出一个深刻趋势:
当大模型迈入大规模商用时代,推理效率已成为用户体验与商业成功的核心杠杆

英伟达依然强大,生态壁垒深厚,但挑战者正在从底层架构发起突袭。无论是晶圆级集成,还是定制化ASIC路线,头部玩家都在密集押注异构计算的新范式。

未来的AI竞争,或许不再只是“谁的模型参数更多”,而是——
谁能让答案,在你话音落下的瞬间,就已经出现在屏幕上