【deer-flow】一个能让 AI 真正“动手做事”的智能体操作系统

DeerFlow 是一个开源的“超级智能体运行时系统”,它不只让 AI 回答问题,而是为 AI 提供了可执行、可记忆、可协作的真实工作环境——就像给 AI 配备了一台专属电脑、一个团队和一份永久笔记。

主要功能与特性

  • 子智能体(Sub-Agents)动态编排:主智能体可按需创建多个独立子智能体,并行处理复杂任务(如同时调研、写报告、生成图表),再统一整合结果;
  • 内置沙盒执行环境:每个任务都在隔离的 Docker 容器中运行,拥有完整文件系统(/mnt/user-data/workspace//outputs/ 等)、bash 执行权和多模态文件操作能力;
  • 长期本地记忆:跨会话持久化保存用户偏好、技术栈、写作风格等信息,记忆数据完全本地存储、由用户掌控;
  • 技能(Skills)即插即用:预置研究、报告生成、幻灯片制作、网页构建、图像生成等 Markdown 形式技能;支持自定义技能并按需加载,避免上下文膨胀;
  • 上下文工程优化:子智能体上下文相互隔离,配合自动摘要、中间结果落盘、上下文压缩等机制,保障长流程任务稳定运行;
  • MCP 服务扩展支持:可通过 MCP(Model Context Protocol)服务器接入自定义工具与外部系统,进一步拓展能力边界。

快速上手方式

项目提供清晰的本地与 Docker 双路径启动方式:

推荐使用 Docker(环境一致、开箱即用):

git clone https://github.com/bytedance/deer-flow.git  
cd deer-flow  
make config  
# 编辑 .env 设置 API 密钥(如 OPENAI_API_KEY、TAVILY_API_KEY)  
make docker-init  
make docker-start  

启动后访问 http://localhost:2026 即可使用 Web 界面。

或选择本地开发模式:

make check  # 检查 Node.js 22+、pnpm、uv 等依赖  
make dev    # 启动全部服务  

同样访问 http://localhost:2026

注:所有配置均通过 config.yaml.env 文件完成,模型支持 OpenAI 兼容接口,可自由切换 LLM。

适用场景与目标用户

DeerFlow 特别适合需要 AI 不仅思考、更要执行 的场景:
深度研究工作者:自动完成文献综述、数据验证、多源交叉分析并输出结构化报告;
内容与产品团队:一键生成带图表的 PPT、响应式网页、技术文档甚至短视频脚本;
开发者与自动化工程师:在沙盒中安全运行代码、调试脚本、构建数据管道或原型系统;
个人知识管理者:借助长期记忆持续积累领域知识,形成越用越懂你的个性化 AI 助理。
它的核心用户是希望摆脱“提示词调参”、转向可复现、可审计、可协作的 AI 工作流的技术实践者——不是只想聊天,而是真想让 AI 把事做成。

总结

DeerFlow 2.0 不是一个新模型,也不是一个提示词模板库,而是一套面向生产级 AI 协作的基础设施:它把智能体从“对话终端”升级为“数字员工”,赋予其文件系统、团队分工、持久记忆和安全执行空间。如果你厌倦了反复粘贴结果、手动整理输出、担心上下文丢失或模型“假装执行”,那么 DeerFlow 提供了一条更扎实、更可控、也更具扩展性的路径。目前项目已进入活跃开发阶段,建议访问其官网 deerflow.tech 获取最新演示与详细文档。

作加

类似文章