一个AI写不好大项目?那就派一支AI工程队来干活
你有没有试过让 AI 帮你写个稍复杂的功能——比如“做个带登录和任务列表的 Todo App”?
一开始它信心满满,三分钟就给你生成了 app.py;
半小时后,你发现:
– 登录没校验密码强度
– 任务列表没分页,100 条数据直接卡死前端
– 它甚至悄悄删掉了你原来的 requirements.txt……
最后它还发来一句:“✅ 已完成!”
这不是模型太菜,而是让它“一个人干全活”的工作方式,从根上就错了。
就像让一个程序员连续加班 8 小时不休息、不交接、不测试——再强的人也会漏需求、跳步骤、写错逻辑。AI 更甚:它没有记忆,没有上下文保鲜能力,越写越忘自己开头答应了啥。
真正的解法?不是换更强的大模型,而是学人类团队——分工 + 检查 + 循环改进。
目前 GitHub 上最火的两个开源方案,不约而同走通了这条路:
– Superpowers(11.8 万星):像一位严格的技术经理。你一说“我要做个 API”,它先拦住你,逼你讲清需求 → 输出可读的设计草稿 → 你点头确认 → 才启动“计划→编码→双审(功能+质量)→修复”闭环。每步只干 2–5 分钟,文件路径、代码、测试用例全写死,连 TDD 都强制执行:没写测试?代码直接删掉重来。
– oh-my-claudecode(OMC)(1.4 万星):像一支灵活的特种小队。你可以一句话分派不同任务给不同 AI:
bash
omc team 2:codex "Review auth module for security issues" # 让 Codex 查安全漏洞
omc team 2:gemini "Redesign UI components for accessibility" # 让 Gemini 改无障碍 UI
omc team 1:claude "Implement payment flow" # 让 Claude 写支付逻辑
它还能自动“学技能”:你手动修了一个 aiohttp 代理崩溃问题,OMC 会悄悄记下修复方法,下次同类错误自动插上这个“补丁”,不用你提醒。
它们的共同内核,就这四步:
– ✅ Plan(计划):把大任务拆成可验证的小目标
– ✅ Implement(实现):每个小目标由专人(专AI)限时交付
– ✅ Review(审查):另一双眼睛检查是否符合计划 + 是否够健壮
– ✅ Fix(修复):不达标?打回重做,直到通过
这根本不是什么新概念——它就是软件工程里跑了几十年的 CI/CD 流水线,只是现在,写代码、审代码、测代码、改代码的人,换成了 AI。
所以,下次你的 AI 又交出一份“看似完整、实则漏风”的代码时,请别急着骂模型弱。
先问一句:
👉 它有清晰的计划吗?
👉 有人(另一个AI)盯着它写对了吗?
👉 写完有没有被要求先写测试?
👉 出错了,是立刻重来,还是糊弄过去?
加一层结构,比换十个模型都管用。
直达网址:https://github.com/obra/superpowers
