你有没有想过,让 AI 像一个真正的团队一样工作?
不是那种你问一句、它答一句的模式,而是你说一个需求,然后一群 AI 自己讨论、分工、互相挑战对方的观点,最后给你一个经过充分论证的结果。
这听起来像科幻片,但 Anthropic 刚刚把它变成了现实。(本文基于 2026 年 2 月 Claude Code 最新版本)
一个人干活 vs 一个团队干活
先说个场景你就懂了。
假设你的代码出了 bug,用户反馈"程序启动后马上就退出"。
按照传统方式,你让 AI 去查,它会一条路走到黑——先猜一个原因,试一下,不行再换一个。
但如果你有一个 AI 团队呢?
你可以同时派 5 个 AI 去调查 5 个不同的假设:
一个去查内存问题
一个去查配置文件
一个去查依赖版本
一个去查网络连接
一个去查日志系统
更有意思的是,这 5 个 AI 还会互相辩论。
张三说"我觉得是内存问题",李四会说"不对,你的证据不充分,我这边发现日志里有明显的配置错误"。
就像一群工程师在白板前讨论问题,互相质疑、互相验证,最后收敛到真正的答案。
这就是 Claude Code 新推出的 Agent Teams 功能。
这和之前的 Subagent 有什么区别?
你可能会问:Claude Code 之前不是已经有 Subagent 了吗?让 AI 生成多个子任务并行执行?
对,但那是完全不同的东西。
Subagent 像是你派出去的侦察兵
你给它一个任务,它干完了把结果交给你,任务结束。侦察兵之间不会聊天,也不会质疑对方的情报。
Agent Teams 像是一个真正的项目组
每个成员都是独立的个体,有自己独立的上下文记忆。他们可以直接给彼此发消息,可以开会讨论,可以反驳对方的观点。
用表格说更清楚:
所以什么时候用哪个?
简单任务用 Subagent,便宜高效。
需要深度讨论、互相质疑的复杂任务用 Agent Teams。
怎么玩?三分钟上手
先说怎么开启。这是实验性功能,需要在配置文件里手动打开:
{
"env": {
"CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
}
}
然后,你直接用自然语言就能创建团队:
创建一个团队来评审这个 PR,我要三个评审员:
- 一个专门找安全漏洞
- 一个关注性能影响
- 一个检查测试覆盖率
就这么简单。
创建完成后,你会看到一个 Team Lead(团队领导)和三个 Teammates(队友)。
他们共享一个任务列表,可以互相发消息,各干各的活。
有个很酷的功能叫 delegate mode,按 Shift+Tab 切换。
开启后,你(Team Lead)只负责协调,不干具体的活,全部交给队友,像一个真正的项目经理。
我最喜欢的用法:科学辩论法调试
文档里有个案例让我眼前一亮。
用户反馈 app 启动后马上退出,你不确定是什么原因。
传统方法是猜一个、试一个,可能要折腾半天。
用 Agent Teams 的玩法是:
用户报告 app 发一条消息后就退出了。
创建 5 个队友,每个人调查一个不同的假设。
让他们互相交流,尝试反驳对方的理论,像科学辩论一样。
然后你就可以喝杯咖啡,看这 5 个 AI 互相"吵架"。
基于官方文档的描述,我想象中的对话可能是这样的:
A 说:"我觉得是退出代码写错了。"
B 说:"不对,我查了代码,退出逻辑没问题,但我发现消息队列有异常。"
C 说:"等等,我这边发现日志显示是网络超时触发的..."
最后,他们会收敛到一个最有说服力的结论。
这比你一个人盯着屏幕瞎猜高效多了。
当然,也有坑
这是实验功能,官方文档明确说了几个限制:
不支持会话恢复:关掉终端,队友就没了
每次只能管一个团队:不能同时开多个项目组
成本比较高:每个队友都是独立的 Claude 实例,Token 消耗大
可能会抢文件:如果两个队友同时改同一个文件,会出问题
需要调试耐心:实际体验可能需要多次尝试,不是一次就能跑顺
所以官方建议,新手先从"不写代码"的任务开始练手,比如让团队做代码评审、做调研分析。等熟悉了再挑战多人协作开发。
我的思考
说实话,这个功能让我看到了 AI 辅助编程的下一个阶段。(以下是我基于官方文档的解读和畅想)
之前我们用 AI,本质上还是"你问我答"的模式。AI 是一个超级助手,但它是被动的。
Agent Teams 开始让 AI 有了"主动协作"的能力。它们可以自己分工、自己讨论、自己质疑对方。你更像是一个导演或产品经理,提出需求,然后看 AI 团队交付结果。
这让我想起一个问题:未来的软件开发,会不会变成"1 个人类 + N 个 AI"的标配?
人类负责定义问题、做关键决策、把控方向;AI 团队负责调研、实现、测试、互相 review。
听起来有点科幻,但 Agent Teams 已经在往这个方向迈出了第一步。
今天就可以试:先在配置里开启实验功能,然后让 3 个 AI 帮你 review 一个 PR。具体步骤
在 ~/.claude/settings.json 加上 CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS: "1"
打开 Claude Code,输入"创建一个 3 人代码评审团队"
避免让多个队友同时改同一个文件
给队友足够的上下文(它们不会继承你的对话历史)
这个功能还在实验阶段,但已经让我看到了一些不一样的可能性。
如果你也玩出了什么有意思的用法,欢迎留言分享。
原文地址:https://code.claude.com/docs/en/agent-teams#when-to-use-agent-teams

