光速重构AI机架:Ayar Labs × 纬颖联手把“铜线”踢出服务器机架

当大模型训练动辄消耗数万张GPU、单次迭代产生TB级内部通信流量时,你可能没想过——真正拖慢AI算力的,不是芯片,而是机架里那几米长的铜线

没错,就是那些看起来毫不起眼、密密麻麻缠绕在服务器背板上的铜质走线。它们正成为AI基础设施升级路上最顽固的“物理墙”:速率一过112Gbps,信号就开始严重衰减;带宽每翻一倍,功耗和散热压力就呈指数飙升;而机架内ASIC之间毫秒级的协同延迟,正在悄悄吃掉大模型分布式训练的效率红利。

🔌 铜线已到极限,光子正式“上岗”

这不是危言耸听——而是Ayar Labs与纬颖(Wiwynn)刚刚官宣的战略落地点。两家公司不再满足于“在机柜里塞更多卡”,而是直接重写机架的通信底层逻辑:用光取代电,把光纤“埋进”芯片封装,让数据以光速在AI加速器之间穿梭。

核心武器来自Ayar Labs的共封装光学(CPO)全栈方案:
SuperNova激光器:微型化、低功耗、可批量集成的硅基光源;
TeraPHY光学I/O引擎:直接嫁接在ASIC封装上,实现电信号→光信号的“零跳转”转换;
– 整套方案不依赖传统SerDes和高速PCB走线,绕开了铜互连的带宽墙、功耗墙与热墙。

实测数据显示:相比当前主流的PCIe 6.0或OIF CEI-112G电互连,该光互连方案在同等距离下可提供3–5倍的有效带宽密度,同时将单位比特传输功耗降低超60%——这对PUE常年卡在1.3–1.4之间的超大规模AI数据中心而言,意味着每年数百万美元的电费节省。

🧊 不是炫技,而是解决真问题

CPO技术早不是实验室概念,但要让它稳稳站在机架里7×24运行?挑战全在细节里。而这恰恰是纬颖作为全球顶级AI硬件系统厂商的“硬功夫”所在:

  • 光纤不能乱塞:在不到1U高度、宽度仅19英寸的机架空间内,如何布设数十甚至上百路微米级光纤,并确保弯折半径安全、插拔可靠、故障可定位?纬颖定制了模块化光背板与快拆式光缆管理架构,让光纤像电源线一样规整、可维护。
  • 光芯片也要降温:激光器和光电探测器同样发热,而AI加速器本身已是“电炉”。双方将Ayar的CPO模组深度耦合进纬颖全液冷AI机架——冷却液直触光学引擎与ASIC,实现双负载协同温控,整机架热设计功耗(tDP)控制更精准。
  • 量产才是终极门槛:再酷的技术,无法上产线=纸上谈兵。合作已定义标准化CPO接口规范、自动化光耦合校准流程及供应链协同机制,目标是在2025年内完成首批千台级交付验证。

🌐 下一站:OFC 2026现场见真章

这场“光电革命”的首个实体成果,将在3月15–19日美国圣地亚哥举办的OFC 2026展会上首次公开展示:
✅ 支持HVDC(高压直流)供电的新型AI机架架构——更适配绿色能源与高功率密度场景;
✅ 全液冷+光互连融合的AI参考设计(Reference Design),含完整热仿真与信号完整性报告;
✅ 实时演示:两颗AI ASIC通过片上光链路完成1.6Tbps无损通信,延迟压至亚微秒级

这不只是两家公司的联合发布,而是一个明确信号:AI基建正从“电时代”跨入“光电混合时代”。当光互连从交换机下沉到机架、再嵌入芯片封装,算力集群将不再被线缆长度、信号完整性或散热天花板所定义——取而代之的,是更高密度、更低功耗、更易扩展的“光原生”AI数据中心范式。

铜线不会一夜消失,但它退出核心路径的时间表,已经由这次合作按下了倒计时。

作加

类似文章