【deer-flow】一个能让 AI 真正“动手做事”的智能体操作系统
DeerFlow 是一个开源的“超级智能体运行时系统”,它不只让 AI 回答问题,而是为 AI 提供了可执行、可记忆、可协作的真实工作环境——就像给 AI 配备了一台专属电脑、一个团队和一份永久笔记。
主要功能与特性
- ✅ 子智能体(Sub-Agents)动态编排:主智能体可按需创建多个独立子智能体,并行处理复杂任务(如同时调研、写报告、生成图表),再统一整合结果;
- ✅ 内置沙盒执行环境:每个任务都在隔离的 Docker 容器中运行,拥有完整文件系统(
/mnt/user-data/workspace/、/outputs/等)、bash 执行权和多模态文件操作能力; - ✅ 长期本地记忆:跨会话持久化保存用户偏好、技术栈、写作风格等信息,记忆数据完全本地存储、由用户掌控;
- ✅ 技能(Skills)即插即用:预置研究、报告生成、幻灯片制作、网页构建、图像生成等 Markdown 形式技能;支持自定义技能并按需加载,避免上下文膨胀;
- ✅ 上下文工程优化:子智能体上下文相互隔离,配合自动摘要、中间结果落盘、上下文压缩等机制,保障长流程任务稳定运行;
- ✅ MCP 服务扩展支持:可通过 MCP(Model Context Protocol)服务器接入自定义工具与外部系统,进一步拓展能力边界。
快速上手方式
项目提供清晰的本地与 Docker 双路径启动方式:
推荐使用 Docker(环境一致、开箱即用):
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
make config
# 编辑 .env 设置 API 密钥(如 OPENAI_API_KEY、TAVILY_API_KEY)
make docker-init
make docker-start
启动后访问 http://localhost:2026 即可使用 Web 界面。
或选择本地开发模式:
make check # 检查 Node.js 22+、pnpm、uv 等依赖
make dev # 启动全部服务
同样访问 http://localhost:2026。
注:所有配置均通过
config.yaml和.env文件完成,模型支持 OpenAI 兼容接口,可自由切换 LLM。
适用场景与目标用户
DeerFlow 特别适合需要 AI 不仅思考、更要执行 的场景:
– 深度研究工作者:自动完成文献综述、数据验证、多源交叉分析并输出结构化报告;
– 内容与产品团队:一键生成带图表的 PPT、响应式网页、技术文档甚至短视频脚本;
– 开发者与自动化工程师:在沙盒中安全运行代码、调试脚本、构建数据管道或原型系统;
– 个人知识管理者:借助长期记忆持续积累领域知识,形成越用越懂你的个性化 AI 助理。
它的核心用户是希望摆脱“提示词调参”、转向可复现、可审计、可协作的 AI 工作流的技术实践者——不是只想聊天,而是真想让 AI 把事做成。
总结
DeerFlow 2.0 不是一个新模型,也不是一个提示词模板库,而是一套面向生产级 AI 协作的基础设施:它把智能体从“对话终端”升级为“数字员工”,赋予其文件系统、团队分工、持久记忆和安全执行空间。如果你厌倦了反复粘贴结果、手动整理输出、担心上下文丢失或模型“假装执行”,那么 DeerFlow 提供了一条更扎实、更可控、也更具扩展性的路径。目前项目已进入活跃开发阶段,建议访问其官网 deerflow.tech 获取最新演示与详细文档。
