作加

AI 成本革命:Databricks 新技术让企业用得起、用得好 GPT-5


用 AI 更聪明:Databricks 推出 GEPA 技术,大幅降低企业使用成本

在 AI 技术飞速发展的今天,如何让企业更高效地使用大模型,已经成为行业竞争的关键。Databricks 最近推出的 GEPA(生成进化提示适应)技术,正是为了解决这个问题。这项新技术不仅提升了 AI 模型的交互质量,还能将运营成本降低多达 90 倍,为企业打开了更经济、更智能的应用大门。

GEPA:不只是优化提示词,而是重构提问方式

传统的提示词优化往往是在已有问题基础上进行微调,而 GEPA 的做法完全不同。它通过一种叫做自然语言反思的技术,让 AI 自己评估自己的输出,并不断改进提问方式。这种自我反馈机制,使得 AI 能够自动找到最适合当前任务的提示策略。

在金融、法律、商业和医疗等多个领域,GEPA 优化后的模型表现比基准模型高出 4 到 7 个百分点,展现出强大的泛化能力和实用性。

成本降低 90 倍?真实数据说话

在处理 10 万次请求的场景下,Databricks 的优化模型成本仅为 Claude Opus 4.1 的 1/90。这意味着,对于大规模使用 AI 的企业来说,单次服务成本几乎可以忽略不计。更重要的是,这项技术不仅优于当前主流的监督微调方法,还额外节省了 20% 的服务成本,同时减少了工程师和数据科学家的工作负担。

与 OpenAI 强强联手,GPT-5 直接接入 Databricks 平台

就在不久前,Databricks 宣布与 OpenAI 达成了一项价值高达 1 亿美元的战略合作。这项合作意味着,企业客户将能够原生访问 GPT-5 模型,无需复杂的 API 配置或外部供应商关系。这不仅简化了部署流程,也让 AI 模型的调用更加便捷高效。

需要说明的是,这 1 亿美元并非实际支付金额,而是 Databricks 对未来合作潜力的预期估值。

Databricks 神经网络 CTO 唐汉林:重新思考 AI 的使用方式

“提示优化不是简单的改写,而是对问题本身的重构。”Databricks 神经网络首席技术官唐汉林在接受采访时强调。他认为,GEPA 技术的核心在于提升人与 AI 的交互质量,而不仅仅是让模型跑得更快。

他同时给出了企业在 AI 部署过程中应该优先考虑的三点建议:

  1. 建立可靠的评估机制
  2. 质疑传统微调是否仍是最佳选择
  3. 重新思考模型采购策略

未来已来:AI 成本壁垒已被打破

随着 GEPA 的推出和与 OpenAI 的深度合作,AI 在企业中的落地门槛大幅降低。那些敢于在早期投入优化能力的企业,将在未来竞争中占据显著优势。

如果你的企业正在探索 AI 转型,现在正是重新思考使用方式的最佳时机。毕竟,AI 不只是“用得起”,更是“用得好”的问题