Nemotron-3-Super来了:120B参数的开源“智能体引擎”,推理快3倍、上下文长达100万,直逼GPT-5.4
3月12日,英伟达没有发布新显卡,却扔出一枚更重磅的AI炸弹——Nemotron-3-Super。这不是又一款泛用大语言模型,而是一款专为“AI智能体”(AI Agent)量身打造的开源大模型。它不拼参数堆料,而是用架构巧思,在效率、长程记忆和任务成功率之间找到了惊人的平衡点。
架构不走寻常路:Mamba + MoE,120B总参,仅12B激活
Nemotron-3-Super采用全球首个公开落地的 Mamba-MoE 混合架构——将状态空间模型(SSM)的线性序列建模能力,与稀疏专家混合(MoE)的动态计算优势深度耦合。结果很直观:
– 总参数量 1200亿,但每次推理仅激活 120亿参数;
– 推理速度提升 300%(即3倍),吞吐量飙升 5倍;
– 原生支持 100万 token 超长上下文——这意味着它能同时“记住”整本《三体》+ GitHub仓库+多轮复杂任务指令,彻底缓解智能体协作中常见的“忘目标”“丢上下文”“逻辑断链”等顽疾。
实测真硬核:OpenClaw成功率85.6%,双登权威榜单榜首
光说不练假把式。在真实智能体战场,Nemotron-3-Super交出了令人信服的成绩单:
✅ 在聚焦Agent能力的 OpenClaw基准测试中,任务成功率高达 85.6%——这一数字已非常接近当前顶尖闭源模型:Claude Opus 4.6(87.1%)与 GPT-5.4(86.9%);
✅ 驱动英伟达自研智能体 AI-Q,在业界公认的 DeepResearch Bench 双维度(研究深度 + 工具调用准确率)评测中双双登顶;
✅ 同时拿下 Artificial Analysis 发布的“效率与开放性综合榜”第一名——开源模型首次在该榜单力压一众商业竞品。
为Blackwell而生:首发支持NVFP4训练,算力利用率再跃升
Nemotron-3-Super不是“通用适配”,而是深度绑定英伟达最新硬件生态。除常规BF16/FP8外,它成为全球首个原生支持NVFP4精度训练的开源大模型。这项技术依托Blackwell架构的第四代Transformer引擎,可将训练显存占用降低约40%,在H100集群上实现更高密度部署——对企业和研究团队而言,意味着同等预算下,训得更快、跑得更久、成本更低。
开源即落地:Perplexity、西门子、戴尔已接入,三大云厂商同步上线
最让开发者振奋的是:它完全免费、开放权重、商用友好(Apache 2.0协议)。发布仅数日,已获多方快速集成:
🔹 搜索新锐 Perplexity 将其用于增强实时研究型Agent;
🔹 工业软件巨头 Palantir 和 西门子 正将其嵌入企业级自动化工作流;
🔹 戴尔 在其AIOps解决方案中完成POC验证;
🔹 同步登陆 AWS Amazon Bedrock、Microsoft Azure AI Studio、Google Cloud Vertex AI ——开箱即用,无需自建推理集群。
💡一句话总结:Nemotron-3-Super不是“又一个开源LLM”,而是一台为AI智能体时代重新校准的高性能、低开销、超长记忆的开源引擎。当闭源模型还在比谁更“大”,英伟达已悄然把战场拉向更关键的维度——谁更懂任务、更省资源、更能协同、更易落地。
开源地址已在Hugging Face发布,GitHub附带完整微调指南与Agent集成示例。这一次,智能体的未来,不必再被API密钥和账单绑架。
