AI智能体大爆发,我们的责任清单也该更新了!


嘿,聊聊AI吧!最近AI圈的风向变得太快,尤其是生成式AI和那些能自主行动的AI智能体(Agentic AI),甚至还有多智能体(Multi-agentic AI)系统,简直让“负责任的AI”这个话题的难度系数又上了一个台阶。

以前我们可能觉得,嗯,AI聊天机器人嘛,一个指令一个动作,企业设好“防护栏”就差不多了。但现在,AI智能体能自己接任务、拆解任务,甚至AI们自己开“圆桌会议”分工合作,我们这些做业务的、做管理的是不是得赶紧升级一下脑回路,重新思考伦理、治理和责任问题了?

最近刚好“听”到微软负责任AI首席产品官萨拉·伯德(Sarah Bird)在一个节目里的分享,她的一番话让我感触颇深。

萨拉提到,随着技术的飞速迭代,她角色的核心没变,还是确保AI符合原则、能被负责任地构建和使用。但最大的变化是,现在大家对“负责任的AI”空前重视!以前她跟客户聊这个,人家可能觉得“哎呀,我们AI才刚起步,这事儿还早”。现在?负责任AI往往是大家接触AI时的第一个问题。这进步,真挺让人欣慰的。

聊到微软在Build大会上发布的那些关于AI智能体的新东西,萨拉也直言,智能体让AI技术的承诺更完整了——谁不想要一个能替我们完成任务的系统呢?但这挑战也随之而来:智能体能自主行动,意味着潜在风险面更大,影响也可能更深远。而且,我们过去最依赖的“人工监督”环节,在智能体长时间自主工作时也变弱了。

那怎么办?萨拉她们的团队在想办法。比如,把AI智能体看作一种新的“实体”,像管理用户、应用程序一样去管理它们,给它们身份(比如用Entra Agent ID),确保安全和治理。同时,也要应对AI智能体可能“跑偏”、泄露敏感数据等新风险。

特别是多智能体系统,听起来是不是特酷炫?好多AI一起协作!萨拉解释说,目前实际应用中,更多是把一个大任务拆成小任务,让每个智能体专注于自己擅长的一小块,这样不仅效率高,也更容易测试和加装“防护栏”。虽然系统复杂了,但只要能清晰地治理好每一个独立的智能体,就能确保整个系统的稳健。微软的Foundry Observability工具就是为了让你能看清每个智能体是不是在“摸鱼”或者“跑题”。

人类在其中的角色也变了。以前是“圈内指导”(inner loop),AI做一步,人看一步。现在更多是“圈外把控”(outer loop),人会更多地在部署前进行充分测试,在部署后进行监控,一旦发现问题再介入。所以,对用户的技能要求也可能不一样了,需要从关注单个案例转向看整体数据和趋势。微软研究院甚至推出了一个叫Magentic UI的系统,让大家探索和实验未来人与AI智能体交互的最佳界面。

谈到风险,萨拉总结了《国际AI安全报告》中的三大类:

  1. 故障:AI系统没按预期工作,比如生成有害内容、跑题、泄露数据、受到提示注入攻击等。
  2. 滥用:一种是用户不理解AI能力而误用;另一种则是恶意滥用。前者靠教育和清晰的界面,后者靠技术防御。
  3. 系统性风险:比如AI智能体大规模部署对现有劳动力的影响。这需要政策、教育和技能提升计划来应对。

萨拉特别强调,企业在引入AI智能体时,千万别忽略“测试”这个环节!很多组织在兴奋地准备上线新系统时,才发现AI会做些他们不希望的事,这时才回头补测试课,往往就晚了。理想的做法是在开发之初,测试就和系统搭建同步进行。

对于企业领导者,萨拉的建议是:睁大眼睛,清醒认识风险,选择合适的应用场景,并且必须投入资源进行测试和建立负责任的AI计划

AI智能体带来的不仅仅是效率的飞跃,更是对我们责任感和智慧的考验。有计划、有投入地去拥抱它,才能真正让它为我们所用,而不是反过来给我们添乱。