Back to Articles
Feb 6, 20261 week ago

One Person Directs 5 AIs Arguing to Debug: A Plain Language Guide to Claude Agent Team

向阳乔木@vista8

AI Summary

This article explores a groundbreaking shift in AI-assisted programming, moving beyond simple question-and-answer interactions to a model where multiple AI agents collaborate like a human team. It focuses on Anthropic's experimental "Agent Teams" feature for Claude Code, which allows a single developer to orchestrate a group of specialized AIs that can independently investigate, debate, and solve complex problems. The piece is worth reading for anyone curious about the practical, near-future applications of AI that mimic collaborative human reasoning. The core concept is vividly illustrated through a debugging scenario. Instead of one AI linearly guessing at a bug's cause, you can deploy a team of five, each investigating a different hypothesis—from memory leaks to configuration errors. Crucially, these agents don't work in isolation; they engage in scientific debate, challenging each other's findings and converging on the most robust solution. The article contrasts this with older "subagent" models, explaining how Agent Teams function as independent entities with their own context, capable of holding discussions. It also provides a candid look at the exciting potential and current experimental limitations, such as cost and management complexity. Ultimately, the piece frames this development as a leap toward a new paradigm in software development: one human director managing a team of AI specialists. It concludes with a straightforward, actionable guide on how to enable the feature and suggests starting with non-coding tasks like code reviews. For a fascinating glimpse into how AI collaboration might soon become a standard part of a developer's workflow, the full article offers both inspiration and practical first steps.

你有没有想过,让 AI 像一个真正的团队一样工作?

不是那种你问一句、它答一句的模式,而是你说一个需求,然后一群 AI 自己讨论、分工、互相挑战对方的观点,最后给你一个经过充分论证的结果。

这听起来像科幻片,但 Anthropic 刚刚把它变成了现实。(本文基于 2026 年 2 月 Claude Code 最新版本)

一个人干活 vs 一个团队干活

先说个场景你就懂了。

假设你的代码出了 bug,用户反馈"程序启动后马上就退出"。

按照传统方式,你让 AI 去查,它会一条路走到黑——先猜一个原因,试一下,不行再换一个。

但如果你有一个 AI 团队呢?

你可以同时派 5 个 AI 去调查 5 个不同的假设:

一个去查内存问题

一个去查配置文件

一个去查依赖版本

一个去查网络连接

一个去查日志系统

更有意思的是,这 5 个 AI 还会互相辩论。

张三说"我觉得是内存问题",李四会说"不对,你的证据不充分,我这边发现日志里有明显的配置错误"。

就像一群工程师在白板前讨论问题,互相质疑、互相验证,最后收敛到真正的答案。

这就是 Claude Code 新推出的 Agent Teams 功能。

这和之前的 Subagent 有什么区别?

你可能会问:Claude Code 之前不是已经有 Subagent 了吗?让 AI 生成多个子任务并行执行?

对,但那是完全不同的东西。

Subagent 像是你派出去的侦察兵

你给它一个任务,它干完了把结果交给你,任务结束。侦察兵之间不会聊天,也不会质疑对方的情报。

Agent Teams 像是一个真正的项目组

每个成员都是独立的个体,有自己独立的上下文记忆。他们可以直接给彼此发消息,可以开会讨论,可以反驳对方的观点。

用表格说更清楚:

所以什么时候用哪个?

简单任务用 Subagent,便宜高效。

需要深度讨论、互相质疑的复杂任务用 Agent Teams。

怎么玩?三分钟上手

先说怎么开启。这是实验性功能,需要在配置文件里手动打开:

{
"env": {
"CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
}
}

然后,你直接用自然语言就能创建团队:

创建一个团队来评审这个 PR,我要三个评审员:
- 一个专门找安全漏洞
- 一个关注性能影响
- 一个检查测试覆盖率

就这么简单。

创建完成后,你会看到一个 Team Lead(团队领导)和三个 Teammates(队友)。

他们共享一个任务列表,可以互相发消息,各干各的活。

有个很酷的功能叫 delegate mode,按 Shift+Tab 切换。

开启后,你(Team Lead)只负责协调,不干具体的活,全部交给队友,像一个真正的项目经理。

我最喜欢的用法:科学辩论法调试

文档里有个案例让我眼前一亮。

用户反馈 app 启动后马上退出,你不确定是什么原因。

传统方法是猜一个、试一个,可能要折腾半天。

用 Agent Teams 的玩法是:

用户报告 app 发一条消息后就退出了。
创建 5 个队友,每个人调查一个不同的假设。
让他们互相交流,尝试反驳对方的理论,像科学辩论一样。

然后你就可以喝杯咖啡,看这 5 个 AI 互相"吵架"。

基于官方文档的描述,我想象中的对话可能是这样的:

A 说:"我觉得是退出代码写错了。"
B 说:"不对,我查了代码,退出逻辑没问题,但我发现消息队列有异常。"
C 说:"等等,我这边发现日志显示是网络超时触发的..."

最后,他们会收敛到一个最有说服力的结论。

这比你一个人盯着屏幕瞎猜高效多了。

当然,也有坑

这是实验功能,官方文档明确说了几个限制:

不支持会话恢复:关掉终端,队友就没了

每次只能管一个团队:不能同时开多个项目组

成本比较高:每个队友都是独立的 Claude 实例,Token 消耗大

可能会抢文件:如果两个队友同时改同一个文件,会出问题

需要调试耐心:实际体验可能需要多次尝试,不是一次就能跑顺

所以官方建议,新手先从"不写代码"的任务开始练手,比如让团队做代码评审、做调研分析。等熟悉了再挑战多人协作开发。

我的思考

说实话,这个功能让我看到了 AI 辅助编程的下一个阶段。(以下是我基于官方文档的解读和畅想)

之前我们用 AI,本质上还是"你问我答"的模式。AI 是一个超级助手,但它是被动的。

Agent Teams 开始让 AI 有了"主动协作"的能力。它们可以自己分工、自己讨论、自己质疑对方。你更像是一个导演或产品经理,提出需求,然后看 AI 团队交付结果。

这让我想起一个问题:未来的软件开发,会不会变成"1 个人类 + N 个 AI"的标配?

人类负责定义问题、做关键决策、把控方向;AI 团队负责调研、实现、测试、互相 review。

听起来有点科幻,但 Agent Teams 已经在往这个方向迈出了第一步。

今天就可以试:先在配置里开启实验功能,然后让 3 个 AI 帮你 review 一个 PR。具体步骤

在 ~/.claude/settings.json 加上 CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS: "1"

打开 Claude Code,输入"创建一个 3 人代码评审团队"

避免让多个队友同时改同一个文件

给队友足够的上下文(它们不会继承你的对话历史)

这个功能还在实验阶段,但已经让我看到了一些不一样的可能性。

如果你也玩出了什么有意思的用法,欢迎留言分享。

原文地址:https://code.claude.com/docs/en/agent-teams#when-to-use-agent-teams

By
向阳乔木