小米亮出AI核弹:三款万亿级大模型齐发,160亿豪赌智能体时代

3月19日,北京。没有红毯,没有灯光秀,只有一场简短却极具分量的线上发布——小米正式揭开了其AI战略的终极底牌:MiMo-V2系列三大自研大模型同步登场。这不是一次常规升级,而是一次面向“智能体(Agent)原生时代”的全面冲锋。

更震撼的是,雷军当天在微博直言:“2026年,小米在AI领域的研发投入与资本支出将超过160亿元人民币。”这个数字,几乎相当于小米2025年全年净利润的1.8倍——重注之下,毫无退路。


三剑合璧:不是“更大”,而是“更懂行动”

MiMo-V2不是单一模型,而是一个为“执行”而生的智能体技术栈。三款模型分工明确、能力互补,首次在业内实现从感知、推理到表达的全链路闭环:

🔹 MiMo-V2-Pro:万亿参数的“AI大脑”
– 总参数量突破 1万亿(1T),全球罕见;
– 采用创新的混合注意力机制(Hybrid Attention),在仅激活420亿参数的前提下,兼顾推理深度与响应速度;
– 支持 100万Token超长上下文——相当于一次性“读完”整本《三体》三部曲并精准调用其中任意细节;
– 在权威第三方榜单 Artificial Analysis 全球大模型综合智能排名中位列第8名,按厂商维度则高居全球第5(仅次于OpenAI、Google、Anthropic和Meta)。

🔹 MiMo-V2-Omni:真正意义上的“全模态神经中枢”
– 首次实现文本、图像、音频信号的原生级融合建模(非简单拼接或后融合);
– 不再满足于“看懂图”或“听清话”,而是能同步理解“视频中老人抬手倒水+语音说‘有点烫’+环境温湿度数据”,并自主触发空调降温、提醒子女等动作——这才是智能体介入物理世界的真实起点。

🔹 MiMo-V2-TTS:让AI开口有温度
– 不止于“像人说话”,更支持毫秒级情感粒度控制:语调微扬、停顿呼吸感、疲惫感加重、惊喜时的气声强化……全部可编程;
– 已接入小爱同学下一代交互系统,首批落地小米汽车座舱与全屋智能管家场景。


真刀真枪:低价API + 全面开放,只为加速Agent生态落地

技术再强,不开放就是孤岛。小米这次选择“以战养战”:

✅ MiMo-V2-Pro 与 MiMo-V2-Omni 即日起开放商用API
✅ 定价策略堪称激进:256K上下文以内,仅1美元/百万Tokens——约为同性能竞品均价的1/3至1/2
✅ 开发者可通过小米AI开放平台一键调用多模态理解、复杂工具链编排、情感化语音合成三大能力。

换句话说:你想造一个能帮你订机票、比价、写邮件、再用带笑意的语音念给你听的私人Agent?现在,基础设施已就位。


幕后关键人物浮出水面:“AI才女”带队,Hunter Alpha曾是它的影子

此前在开发者圈疯传的神秘模型“Hunter Alpha”,如今揭晓身份——它正是MiMo-V2-Pro的内测代号。而主导这支AI精锐部队的,是小米内部被称为“AI才女”的首席科学家团队。她们过去三年低调攻坚,在混合专家(MoE)、长上下文压缩、跨模态对齐等硬核方向连续突破,才让万亿参数不只是数字游戏,而是可部署、可调度、可进化的智能基座。


下一站:人车家全生态的“Agent化重生”

160亿,投向哪里?
不是买算力,不是堆数据,而是构建一个横跨手机、汽车、智能家居的统一智能体操作系统——未来的小米SU7会主动预判你下班路线拥堵,提前启动空调并推送改道建议;小米电视不再等你喊“小爱”,而是在你皱眉看新闻时自动调出事件背景卡片;扫地机器人发现阳台积水,不仅上报,还联动关窗器与排水泵协同处置。

这不再是“功能叠加”,而是每个设备都拥有感知、思考、决策、行动的完整人格雏形

当全球还在争论“大模型该多大”,小米已把战场拉到了下一个维度:
谁能让AI真正动手做事,谁就定义了AI 2.0时代的入口。
万亿参数,只是起点;160亿投入,只是第一枪。

作加

类似文章