当AI成为职场氧气:中美员工正活在两个平行宇宙

2026年3月26日,彭博社的一场专访掀开了全球AI落地最真实的裂痕——不是算力之争,也不是模型参数之差,而是一场无声却剧烈的“温差地震”。主角是彼得·斯坦伯格(Peter Steinberger),被开发者圈亲切称为“龙虾”的OpenClaw之父。如今他已加入OpenAI,执掌Codex团队,但真正让他语速加快、眼神发亮的,是那个正在中国写字楼、高校教室甚至社区老年大学里高速运转的AI现实。

一边是“不用就出局”,一边是“用了就停职”

斯坦伯格用一句直击本质的话划清了分界线:

在美国,你可能因擅自使用OpenClaw被解雇;
在中国,你可能因拒绝使用它而被优化。

这不是夸张修辞,而是他实地走访数十家企业后的观察结论。在中国,OpenClaw早已不是“可选插件”,而是嵌入KPI考核、晋升答辩甚至新员工培训手册的“数字生存技能”。某头部电商公司要求所有运营岗员工每月提交3个基于OpenClaw提效的实战案例;深圳一所职业院校将AI工作流设计纳入毕业硬性学分;杭州某养老社区的银发测试团,正用语音指令训练OpenClaw自动整理用药提醒与家庭相册——他们不是用户,而是共同进化的协作者。

反观部分美国企业,内部AI政策正滑向保守极值:禁用名单越拉越长、审批流程堪比FDA药物审查、IT部门甚至部署了实时检测AI工具调用行为的“哨兵系统”。安全焦虑真实存在,但斯坦伯格指出:“恐惧不该变成防火墙,而应成为校准器——你永远无法靠封禁理解一个系统,只能靠高频、透明、有边界的交互。”

全民测试场背后:一场超大规模的“人机共智实验”

斯坦伯格把中国比作“全球最大的AI压力测试实验室”:
– 学生用OpenClaw重构论文逻辑链,再由教授用同一工具反向验证其原创性;
– 制造业工程师让AI智能体同步协调17家供应商的BOM表更新与物流调度;
– 连三甲医院的规培医生,也在用定制化医疗智能体交叉核对影像报告与最新临床指南。

这种自下而上的渗透,意外催生了关键突破:大量边缘场景的反馈,正快速填补通用模型的“现实盲区”。比如,当上海一位菜场摊主教会OpenClaw识别32种时令蔬菜的方言叫法并自动匹配批发价波动模型时,这个微小数据点,最终反哺了整个农业供应链模块的鲁棒性升级。

下一站:你的“数字分身”,不再需要写一行代码

站在Codex团队前沿,斯坦伯格透露了一个更激进的演进方向:编程专用性正在坍缩
过去,我们为写代码装一个Copilot,为写邮件装一个助手,为做PPT再开一个插件——每个工具都是孤岛。而OpenClaw的下一代智能体,将具备“模糊编程”能力:用户无需定义语法,只需描述目标(例如:“把上周客户投诉录音转成结构化问题清单,并按紧急度排序,同步推送至售后主管和产品迭代组”),系统便自动拆解任务、调用API、校验权限、生成多端适配报告。

更重要的是,这些智能体将拥有清晰的“主权边界”:
✅ 商业数据不出内网,个人健康记录永驻本地设备;
✅ 每次跨应用调用均需动态授权,且全程可审计;
✅ “工作智能体”与“生活智能体”物理隔离,连缓存都不共享。

斯坦伯格说:“我们终将告别‘打开聊天框’的时代。未来的AI不是窗口,而是影子——它不替代你决策,但让你每一次决策都站在更广的数据维度、更深的领域知识和更稳的伦理锚点之上。”

这场温差,终将归于平衡。而率先跨越鸿沟的,或许不是跑得最快的那个国家,而是最早读懂“温度”本质的那群人:AI从不考验技术,它只筛选认知的勇气。

作加

类似文章