作加

AI 安全新纪元:OpenAI 推出“穿山甲”助手,让漏洞无处遁形


一款会“思考”的安全研究员?Aardvark 来了

在软件世界里,漏洞就像隐藏在暗处的裂缝,稍有不慎就可能引发灾难性后果。每年数以万计的新漏洞被披露,安全团队疲于应对,开发者也常常在代码提交后才意识到潜在风险。但如今,OpenAI 正试图用人工智能扭转这一局面——他们推出了 Aardvark,一个基于 GPT-5 的智能安全研究助手,它不只“看”代码,更像人类研究员一样“理解”和“推理”代码。

这个名字或许听起来有点陌生——Aardvark,中文意为“穿山甲”,一种擅长挖掘、敏锐警觉的动物。而这正是这款工具的象征:深入代码底层,精准挖掘潜在威胁。

不只是扫描器,而是会“动手”的AI研究员

传统漏洞检测工具往往依赖规则匹配或静态分析,容易产生大量误报,且难以判断漏洞是否真的可被利用。而 Aardvark 的不同之处在于,它结合了大语言模型(LLM)的强大推理能力与自动化工具调用技能,真正实现了类人研究流程

它的运作方式分为几个关键阶段:

  1. 建立威胁模型:首次接入项目时,Aardvark 会全面分析整个代码库,理解系统架构与安全边界,构建出符合项目特性的威胁模型。
  2. 持续监控变更:每当有新代码提交,它会立即审查改动部分,识别潜在漏洞,防患于未然。
  3. 回溯历史问题:不仅如此,它还会扫描历史提交记录,找出早已存在却被忽视的隐患。
  4. 沙盒验证可利用性:发现可疑点后,Aardvark 会在隔离的沙盒环境中尝试复现攻击路径,确认漏洞是否真实存在,并详细记录每一步操作。
  5. 自动建议修复方案:最令人惊叹的是,它能与 OpenAI Codex 联动,自动生成修复补丁,供开发者审核后一键合并,极大缩短修复周期。

换句话说,Aardvark 不只是个“报警器”,它更像是一个全天候在线的安全专家,能读、能想、能试、还能写代码。

实战表现亮眼:92% 漏洞识别率

在过去几个月的内部测试中,Aardvark 已在 OpenAI 自身的核心代码库及部分外部合作项目中投入使用,成功识别出多个高风险漏洞,显著提升了整体安全响应效率。

在一项针对“黄金”代码库的基准测试中,Aardvark 成功检测出 92% 的已知和人工植入的漏洞,展现出极高的准确率和实用性。这一数据不仅证明了其技术可行性,也为未来大规模应用打下坚实基础。

开源守护者:免费为非商业项目护航

更值得称赞的是,OpenAI 并未将这项技术完全封闭。Aardvark 已被用于分析多个开源项目,并通过负责任披露机制向社区报告了多项关键漏洞。

目前,OpenAI 正计划为非商业性质的开源项目提供免费扫描服务,旨在提升整个开源生态系统的安全性。考虑到当今软件供应链高度依赖开源组件,这一举措或将产生深远影响。

迈向“防御者为中心”的新时代

随着软件渗透进金融、医疗、交通等关键领域,安全已不再是事后补救的问题,而是必须前置到开发流程中的核心环节。Aardvark 的出现,标志着一种以防御者为中心的新范式——在代码演进的每一刻,都有一个智能助手在默默守护。

目前,Aardvark 已进入私人测试阶段,仅向受邀合作伙伴开放。虽然尚未面向公众发布,但其理念和技术路径无疑为未来的 DevSecOps 带来了全新想象空间。

可以预见,在不远的将来,每一位开发者身边,或许都会有一位像 Aardvark 这样的 AI 安全搭档,让编程更安全,也让数字世界更值得信赖。

想了解更多?访问官方博客:https://openai.com/index/introducing-aardvark/