扩展已到极限?AI正迎来一场深刻的范式转移
在人工智能狂飙突进的十年后,一位重量级人物站出来告诉我们:是时候按下暂停键,重新思考方向了。
伊利亚・苏茨克维(Ilya Sutskever),这位曾深度参与塑造现代AI格局的前OpenAI联合创始人、如今Safe Superintelligence公司的掌舵者,在最近一次长达三万字的深度访谈中,抛出了一个振聋发聩的观点:当前AI的发展已经撞上了天花板——我们正在从“规模扩张”的黄金时代,步入一个必须回归基础研究的新阶段。
从“越大越好”到“为何无效”?
回顾过去十余年,AI的发展大致可分为两个阶段:
- 2012–2020年:这是属于算法突破与理论探索的“研究黄金期”。深度学习的崛起彻底改变了游戏规则。
- 2020年至今:进入“扩展时代”——模型越来越大,参数越来越多,算力投入呈指数级增长。
但问题来了:当算力投入持续飙升,模型性能的提升却开始变得微乎其微。
苏茨克维指出,这种“投入递减”的趋势,意味着我们正站在效率与浪费的临界点上。继续堆叠算力和数据,可能不再能换来相应回报。换句话说,“大”不再是“强”的代名词。
模型很聪明,但为什么总犯蠢?
你有没有遇到过这样的情况:某个大模型在标准测试题上得分极高,可一旦面对真实世界的复杂任务,就开始“翻车”?
这正是苏茨克维所担忧的核心问题之一。他指出,当前主流大模型的泛化能力存在严重缺陷。它们之所以表现不稳定,是因为训练过程过于依赖狭窄的强化学习数据集——这些数据往往优化的是“得分”,而不是“理解”。
“这就像是培养一个只会编程竞赛的学生。”苏茨克维打了个比方,“他在比赛中拿金牌,但到了真实项目里,却不知道如何协作、调试或应对需求变更。”
模型学会了“答题技巧”,却没掌握“解决问题的能力”。
真正的智能,需要“情绪”吗?
更令人深思的是,苏茨克维提出了一个常被忽视的维度:情绪在智能决策中的作用。
他认为,人类的价值判断和行为选择,并非完全理性,而是深受情绪调节的影响。而这种机制,可能是数百万年进化筛选出的生存智慧。如果AI想要真正理解人类、融入社会、做出符合伦理的决策,就不能只靠逻辑推理。
未来的AI系统,或许需要某种形式的“情感建模”——不是为了让人工智能“感受”,而是为了让它更好地模拟人类的价值取向和行为边界。
先驱们的共识:我们可能走错了路
值得注意的是,苏茨克维并非孤例。越来越多的AI奠基人开始质疑当前主流路径。
图灵奖得主杨立昆(Yann LeCun)就直言不讳地表示:现有的大语言模型技术可能是一条“死胡同”。他认为,真正的智能应建立在对世界的理解之上,而不是对文本模式的拟合。
他提出的替代方案是“世界模型”(World Models)——让AI像婴儿一样,通过观察和互动来构建对物理和社会规律的认知框架。只有这样,机器才能具备预测、规划和自主学习的能力。
转折点已至:通往AGI的新路径
综合来看,AI行业正处于一个关键的十字路口。
过去依赖“更多数据+更强算力+更大模型”的发展模式正在失效。若想迈向通用人工智能(AGI),我们必须:
- 重新重视基础理论研究;
- 探索超越纯语言模型的新架构;
- 构建能理解世界、适应环境、具备价值对齐能力的系统。
苏茨克维的警告,不是对技术进步的否定,而是一次清醒的提醒:真正的突破,往往来自对本质的回归,而非表面的膨胀。
AI的未来,或许不在于“更大”,而在于“更深”。