Back to Articles
Feb 15, 20262 hours ago

Anthropic CEO Dario Amodei Interview: We Are Approaching the End of the Exponential

宝玉@dotey

AI Summary

In a compelling follow-up to a pivotal interview from three years ago, Anthropic CEO Dario Amodei returns with bold predictions and a sobering analysis of the AI frontier. The conversation centers on the imminent arrival of transformative AI—what Amodei calls a "genius-in-a-datacenter"—and the complex economic, strategic, and societal realities that will shape its impact. He argues that the technical scaling of AI, including in reinforcement learning, continues to follow predictable exponential laws, setting the stage for profound capabilities within 1-3 years. However, the diffusion of this technology into the global economy, while extremely fast, operates on its own timeline and is not instantaneous. The dialogue delves into the practical mechanics of this transition, exploring the tangible productivity gains from AI programming, the unique economic model of AI companies where profitability hinges on demand forecasting, and the high-stakes strategic divergence between Anthropic's cautious scaling and competitors' trillion-dollar bets. Beyond economics, Amodei provides a clear-eyed view on governance, advocating for sensible federal standards over chaotic state-level regulation, and articulates a nuanced stance on global AI competition, distinguishing between beneficial collaboration on areas like medicine and necessary restrictions on foundational infrastructure. Throughout, he emphasizes the immense uncertainty faced by decision-makers living on the exponential curve, where world-altering choices can feel disarmingly mundane. This reading guide only scratches the surface of a rich discussion that balances visionary optimism with operational prudence. To fully grasp the tensions between imminent technological breakthroughs, their practical integration, and the geopolitical landscape they will define, the full article and interview are essential.

Anthropic CEO Dario Amodei 三年前在 Dwarkesh Podcast 上做了一期长访谈,当时他预测“三年后你和 AI 对话一小时,很难分辨它跟一个受过良好教育的人有什么区别”。这个预测基本兑现了。

三年后他又来了。这次他说的话更大胆:1-3 年内有 50% 的概率出现“数据中心里的天才之国”,10 年内 90% 确信。他同时经营着一家收入每年翻 10 倍的公司,刚完成 300 亿美元融资,估值 3800 亿。

这期访谈覆盖了几乎所有关键问题:Scaling 到底在 scale 什么?AI 编程的真实生产力是多少?AI 公司凭什么能盈利?监管会不会毁掉一切?中美能不能各有各的“天才之国”?

原始视频链接:https://youtu.be/n1E9IZfvGMA

要点速览:

强化学习(RL)的规模扩展(scaling) 呈现出与预训练相同的对数线性规律,Dario 2017 年提出的“大算力团块假说”至今成立

当前 AI 编程带来约 15-20% 的总生产力提升,半年前约 5%,正在加速

1-3 年内有 50% 概率出现“天才之国”,10 年内 90% 确信,但“我们目前显然还没到”

AI 行业天然盈利结构:约 50% 算力用于训练 + 50% 用于推理(运行模型为用户生成回答),推理毛利率超 50%,亏损主要来自需求预测偏差

经济扩散“极快但非无限快”,Anthropic 收入连续三年每年 10 倍增长,2026 年 1 月又增数十亿

芯片和数据中心不应卖给中国,但疾病治疗药物可以

Dario 约 30-40% 时间花在公司文化上,每两周做一次“Dario Vision Quest”全员分享

【1】Scaling 还在继续,只是换了个形式

Dwarkesh 开场问了一个他三年前就问过的问题:Scaling 为什么有效?

三年前答案相对简单——预训练(用海量数据训练模型的第一阶段)的损失值(loss)随着算力增加而对数线性下降,有公开的规模定律(scaling law)曲线可以看。但现在情况变复杂了。强化学习(RL)的 scaling 没有公开的规模定律,甚至连“RL 到底在教模型什么”都没有清晰的公共叙事。

Dario 的回答是:别想复杂了,本质上和之前一样。

他说自己 2017 年写了一份内部文档叫 "大算力团块假说"(The Big Blob of Compute Hypothesis),比 Rich Sutton 2019 年发表的“苦涩的教训”(The Bitter Lesson)还早两年。【注:Rich Sutton 是强化学习领域的奠基人之一,他的“苦涩的教训”指出,AI 研究史上,利用更多计算的通用方法总是最终胜出,人类精巧设计的特殊方法总是被淘汰。】

这份文档列了七个关键要素:原始算力、数据量、数据质量和分布广度、训练时间、可 scale 的目标函数(预训练和 RL 各一种)、以及数值稳定性相关的归一化技术。Dario 说这个框架至今没什么需要修改的。

关键新信息是:RL 现在也展现出与预训练相同的对数线性的 scaling 规律。

“我们在 RL 上看到了和预训练一样的 scaling。”

而且不只是数学竞赛。Dario 说在“广泛的 RL 任务”上都看到了这种 scaling,虽然他没有透露具体是哪些任务。

他做了一个类比。早期的预训练也是从窄分布数据开始的,GPT-1 是在同人小说(fanfiction)上训练的,泛化能力很差。直到 GPT-2 用了全互联网数据(从 Reddit 链接抓取),才开始出现真正的泛化。RL 正在经历同样的过程:从数学竞赛到代码,再到更多任务,泛化正在到来。

Dwarkesh 追问:Rich Sutton 对大语言模型(LLM)其实并不看好。

Sutton 的观点大致是:如果一个系统真正拥有人类学习的核心算法,它不应该需要几十亿美元的数据和算力才能学会用 Excel。我们在 RL 环境中一个一个教模型技能,这本身就暗示我们缺少某种核心的学习能力。

Dario 承认这里有一个真实的困惑:模型确实比人类需要多得多的训练数据(人类看不到万亿个词,但模型需要)。但 Dario 把这个问题重新框架化了:

预训练不等于人类学习,它介于人类进化和人类学习之间。 人类大脑不是白板,很多先验知识来自进化。而模型从随机权重开始,更像白板。所以预训练做的事情,既不是进化也不是学习,而是介于两者之间。模型的上下文学习(in-context learning)则介于人类的长期学习和短期学习之间。

“LLM 的各个阶段存在于这个光谱上,但不一定在完全相同的位置。”

【2】“扩散”是借口吗?

Dwarkesh 的辣评(hot take):扩散是 AI 能力不够时的遮羞布。

他的论证是:AI 相比人类有天然的集成优势。它能在几分钟内读完你全部的 Slack 和文档,可以无限复制已验证的实例,没有招聘时的逆向选择问题。如果整合 AI 比雇人容易得多,那扩散不应该是瓶颈。

Dario 的区分:扩散确实存在,不只是模型能力不够的借口。

他举了 Claude Code 的例子。Claude Code 对个人开发者来说几乎零门槛就能开始用,大企业采用它的速度也比常规技术快得多。但即便如此,大企业仍然需要经过法务审查、安全合规、领导层决策、IT 部门部署等一系列流程。

“我们正在竭尽全力让 Anthropic 的收入每年增长 20 到 30 倍,而不是 10 倍。”

他的核心框架:

“我认为我们应该思考的是这个中间地带:一切都极快,但不是瞬间完成。”

存在两个指数:一个是模型能力的指数,另一个是经济扩散的指数。两者都很快,但后者有自己的节奏。他用 Anthropic 的收入曲线做了论证:2023 年从 0 到 1 亿美元,2024 年 1 亿到 10 亿,2025 年 10 亿到 90-100 亿,2026 年 1 月又增加了数十亿。【注:据 Bloomberg 报道,Anthropic 2025 年底年化经常性收入(ARR)超过 90 亿美元;据 Sacra 估计,2026 年 2 月 ARR 约 140 亿美元。Anthropic 刚于 2026 年 2 月 12 日完成 300 亿美元 G 轮融资,投后估值 3800 亿美元。】

但他也说:

“我不认为即使是 AGI、强大的 AI 或'数据中心里的天才之国',会是一个吸引力无限大的产品。”

他认为即使有了天才之国,经济扩散速度大概是每年 3-5 倍甚至 10 倍增长——在百亿甚至千亿规模上依然极快、史无前例,但不是无限快。

Dwarkesh 进一步追问:如果你说的“天才之国”真的存在了,JPMorgan 或 Moderna 不用也无所谓,天才们可以自己开公司啊。

Dario 否认当前接近 AGI:

“如果我们已经有了'数据中心里的天才之国',我们会知道的。你有了你也会知道。在座的每个人都会知道。华盛顿的每个人都会知道。”

【3】AI 编程的真实生产力:15-20%,正在加速

Dwarkesh 首先质疑了“AI 写 90% 代码”的含义。

编译器也“写了所有代码”。关键不是谁写了多少行,而是真实生产力提升了多少。Dario 表示完全同意,然后提出了一个清晰的光谱:

90% 的代码由 AI 写 → 100% 的代码由 AI 写(这两者之间差距很大)→ 90% 的端到端软件工程(SWE)任务由 AI 完成(包括编译、环境搭建、测试、写文档)→ 100% 的 SWE 任务由 AI 完成 → 新的更高层级任务被创造出来 → 那些新任务也被自动化 → SWE 需求下降 90%

他说八九个月前预测“AI 将在 3-6 个月内写 90% 的代码”,这已经在一些地方实现了,包括 Anthropic 内部。但人们误以为这意味着“不需要 90% 的程序员”。

“这两件事差了十万八千里。”

Dwarkesh 引用了 METR(一家专注 AI 能力评估的研究机构)的研究。

这是 2025 年 7 月发布的一项随机对照试验:16 名有经验的开源开发者在自己熟悉的代码库上完成 246 个真实任务,随机分配是否允许使用 AI 工具(主要是 Cursor Pro(一款 AI 编程工具)+ Claude 3.5/3.7 Sonnet)。结果:使用 AI 的开发者实际上慢了 19%,但他们自己觉得快了 20%。

Dario 回应:Anthropic 内部的情况“毫不含糊”。

“没有时间扯淡。”

他说 Anthropic 面临着巨大的商业压力,同时还要做比竞争对手更多的安全工作。没有时间“感觉自己高效但实际上不是”。工具带来的生产力提升每隔几个月就能从新模型发布中直接看到。

他还提到一个细节:Anthropic 关心竞争对手使用自家工具,因为相信自己在领先——如果这些工具其实降低生产力,就不会去操心这件事了。

【注:2025 年 Anthropic 曾撤销 OpenAI 对 Claude 的访问权限,引发行业讨论。】

但 Dwarkesh 继续追问:如果 AI 编程的递归自我改进效果这么好,为什么最好的编程模型并没有让其制造者获得持久领先?各家实验室每隔几个月就在领奖台上换位置。

Dario 承认这个现象,但给出了 "雪球效应" 的解释:

优势正在逐渐积累。他估计当前 AI 编程带来的总生产力提升大约是 15-20%,半年前只有 5%。5% 的优势基本不可感知,15-20% 开始成为“几个重要因素之一”。他预期这个数字会继续加速:10%、20%、25%、40%……

但他也承认,随着数字增大,Amdahl 定律(系统整体提升受限于最慢的环节)开始生效,你必须消除所有阻止你闭环的瓶颈。

XIMGPH_3

【4】持续学习可能根本不需要

Dwarkesh 提出了一个核心问题:大多数工作中,人的价值来自“在职学习”积累的上下文和理解。AI 缺乏这种能力,是不是会严重限制它的经济价值?

他用自己的视频编辑团队举例:编辑刚入职时不太好用,但六个月后积累了对受众偏好、个人品味和各种权衡的理解,变得不可替代。一个能在岗位上像人一样成长的 AI 系统,什么时候能出现?

Dario 认为持续学习可能根本不是障碍。

他用编程做了关键论证。在编程领域,没有人把“模型不够了解代码库”列为主要痛点。为什么?因为代码库本身就是外部记忆的载体。人类需要六个月学习代码库,模型把它读进上下文就行了。

Dwarkesh 反问:编程领域之所以进展快,不正是因为代码库本身就是一种“外部记忆脚手架”吗?不是所有工作都有这种结构化的外部记忆。

Amodei 认为这恰恰说明:通过阅读代码库到上下文中,模型就获得了“人类需要在岗学习才能积累的一切”。一百万 token 的上下文相当于人类读一百万个词——“至少几天到几周”的学习量。

对于“持续学习”是否是一个真正的障碍,他的判断是“可能根本不是”。

“ML 的历史中,人们提出了很多'这是障碍'的东西,最终都在大计算块中消融了。人们曾经说'模型只能理解语法不能理解语义','只有统计相关性','能理解段落但不能推理'——然后突然发现模型在代码和数学上非常出色。”

他的时间线判断:预训练泛化 + RL 泛化 + 上下文内学习,可能就足以实现大部分“天才之国”的能力。如果确实需要持续学习,一到两年内也会解决。上下文长度的增加“不是研究问题,是工程和推理问题”,瓶颈在模型处理长文本时的内存存储和调度,以及训练和推理的上下文长度不一致导致的质量下降。

他的完整框架是:存在两种机制可以替代传统意义上的“在职学习”。

第一,预训练和 RL 泛化,模型的知识广度已经超过任何个人(它知道更多日本武士历史、棒球统计、低通滤波器原理)。

第二,上下文学习,虽然比人类学习弱一些、更短期一些,但已经能处理大量任务。

这两种机制可能就足够实现“天才之国”,产生万亿级收入。

持续学习是锦上添花而非必需品,但 Anthropic 也在研发。

Dwarkesh 直接问了一个时间预测:什么时候你不会更偏好一个合作了六个月的人类编辑而非一个合作了六个月的 AI?

Amodei 的回答:"如果让我猜,一到三年。我有一个预感——大约一半一半——更可能是一到两年。"

【5】如果 AGI 就要来了,为什么不多买算力?

Dwarkesh 把 Dario 自己说过的两句话放到一起。一方面,Anthropic 在政策建议文件中预测 2026 年底或 2027 年初出现“能力匹配或超越诺贝尔奖得主的 AI 系统”。另一方面,Dario 两个月前在接受 DealBook 采访时强调 Anthropic 在算力扩张上比竞争对手更“负责任”。

Dwarkesh 的逻辑:如果你真信天才之国就要来了,你应该倾尽全力买算力。潜在市场规模(TAM)是万亿级的。为什么这么保守?

就在这次采访的几周前,OpenAI 的 Stargate 项目已经从蓝图变成了现实:5000 亿美元的基础设施投资计划,德州阿比林的旗舰数据中心已经投入运营,全美规划了近 7 吉瓦的算力容量。Sam Altman 公开表示,OpenAI 的基础设施承诺总额达到 1.4 万亿美元。

[注:OpenAI 的 Stargate 项目于 2025 年 1 月在白宫宣布,由 OpenAI、软银、Oracle 和 MGX 联合出资。截至 2026 年初,项目已扩展至 5 个数据中心站点,总规划容量近 7 吉瓦。此外,OpenAI 还与 Oracle 签订了 3000 亿美元的云基础设施合同,与 Nvidia 达成 1000 亿美元的芯片协议,与 AMD 签订 900 亿美元的 GPU 供应合同。]

Dwarkesh 实际上是在问:你的最大竞争对手正在用万亿级赌注 all-in,你为什么还在谨慎行事?

Dario 的回答归结为两个字:风险。

他确实对技术进展有很高的信心(1-2 年有直觉性的判断)。但不确定的是技术到位之后,收入到来需要多久。可能 1 年,可能 2 年,他甚至觉得 5 年都有可能(虽然他对此表示怀疑)。

而算力采购需要提前 1-2 年决策。如果你预测 2027 年收入达到 1 万亿美元,购买了 5 万亿美元的算力(1 万亿/年 × 5 年),但实际收入只有 8000 亿——没有任何对冲工具能拯救你。

“我的印象是,其他一些公司根本没有把账算清楚,他们并不真正理解自己承担的风险。他们只是觉得听起来很酷就去做了。”

这句话虽然没有点名,但矛头很明显。根据公开的财务文件,OpenAI 预计 2026 年亏损约 140 亿美元,2028 年运营亏损可能膨胀至当年收入的四分之三,累计到 2029 年的现金消耗预计达到 1150 亿美元。有分析师警告,如果没有持续的大规模融资,OpenAI 可能在 2027 年中期面临现金枯竭。而 Anthropic 的路径截然不同——预计 2027 年将现金消耗率降至收入的 9%,2028 年左右实现盈亏平衡。

[注:据 Fortune 报道,OpenAI 预计 2026-2027 年现金消耗率维持在收入的 57%,而 Anthropic 预计 2026 年降至约三分之一、2027 年降至 9%。OpenAI 预计到盈利前的总烧钱规模约为 Anthropic 的 14 倍。]

这里有一个微妙但重要的分歧,Dwarkesh 的追问恰好把它逼了出来。OpenAI 的策略本质上是一场“要么统治要么破产”的豪赌——先用万亿级承诺锁定算力供应,赌自己能在现金耗尽之前跑出足够的收入来填坑。Dario 的策略则是“活着到达终点”——他相信 AGI 会来,但他更相信从技术突破到万亿收入之间存在一个危险的时间差,而这个时间差足以杀死任何一家过度扩张的公司。

Dwarkesh 继续追问:Anthropic 告诉投资者计划从 2028 年开始盈利。可 2028 年恰恰是可能出现“天才之国”的时间窗口。那不正是应该疯狂投入的时候吗?盈利难道不意味着“投得还不够多”?

【6】AI 公司到底怎么赚钱?

Dario 给出了一套完整的 AI 行业经济模型。

他的核心论点是:AI 公司的盈利或亏损,主要不取决于“投不投资”的决策,而取决于需求预测的准确性。

简化模型是这样的:假设一半算力用于训练,一半用于推理。推理的毛利率高于 50%。如果你准确预测了需求量,你天然就是盈利的——推理收入覆盖了训练成本,还有剩余。

亏损发生在你预测偏高的时候:买了太多算力,需求没跟上,多出来的算力只能用于训练更强的模型(但赚不到钱)。盈利发生在你预测偏低的时候:需求超预期,训练被挤压,但推理收入很高。

这个框架实际上也解释了上一节的算力投资分歧。OpenAI 的万亿级承诺,本质上是在赌需求会以极快的速度膨胀到匹配其庞大的算力供给。如果赌对了,那些算力全部变成推理收入,利润丰厚。如果赌错了——哪怕只是时间上错了一两年——多余的算力就变成了沉没成本,只能拿去训练更大的模型,但训练本身不产生直接收入。Dario 的保守策略,换成这套语言来说,就是 "宁可少买导致短期供不应求,也不多买导致长期资不抵债"。

所以,盈利不是“我们不再投资了”的信号,而是“我们猜对了需求”的信号。

Dwarkesh 继续推进:但训练下一代模型才是 AI 公司存在的理由。训练成本每年指数增长,怎么可能盈利?

Dario 的回答是:训练规模不会永远指数增长。到某个点,你会触及经济体的边界。同时,Scaling 的回报是对数线性的,这意味着把研发预算从 50% 提到 70% 带来的边际收益很小——那额外的 20% 资金可能用在推理或工程上更有价值。

他类比了云计算行业。云计算有三四个玩家,利润不是天文数字但也不是零。原因是极高的资本和技术门槛构成了壁垒。AI 行业类似,但模型差异化程度比云计算更高。

“大家都知道 Claude 擅长的东西和 GPT 不一样,和 Gemini 也不一样。”

他还提到了一个可能改变整个定价逻辑的观察:token 的价值差异巨大。

“模型输出的每个 token 价值并不相同。”

模型告诉你“重启你的 Mac”,这几个 token 可能值几美分。但模型告诉制药公司“把分子那端的芳香环移到这端”,这几个 token 可能值几千万美元。他预测未来会出现 "按结果付费"的商业模式——这在今天还不存在,但一旦实现,AI 公司的收入天花板将远超当前基于订阅和 API 调用的模型。

Dwarkesh 最后抛出了一个更大的元问题:利润在市场经济中意味着“其他公司能比你更好地使用这些钱”。在 AI 进步如此快的时候,AI 公司有利润不是说明你投得还不够吗?

Dario 用了古诺均衡来回答。少数几家公司各自理性行为,不会均衡到零利润。这不是垄断(他特别说“我的律师们不让我说垄断”),而是高准入门槛的自然寡头。

[注:古诺均衡(Cournot Equilibrium)是经济学中描述少数厂商竞争的经典模型,每家企业独立决策产量,最终达到一个非零利润的均衡状态,不同于完全竞争下的零利润结局。]

Dario 讲的其实是同一件事:这个行业的赢家不是投入最大的人,而是预测最准的人。OpenAI 在赌自己能比所有人更准确地预测需求的爆发时间点,所以敢签万亿级的合同。Dario 不敢做这个赌注,不是因为他不信 AGI,而是因为他认为“预测对了时间”和“预测对了方向”是两件完全不同的事,后者容易,前者几乎不可能。

【7】Claude Code 是怎么做出来的

Dwarkesh 问:在编程 Agent 这个竞争最激烈的应用领域,为什么是 Anthropic 这个模型公司做出了品类领导者?

2025 年初,Amodei 判断 AI 模型已经到了能明显加速 AI 公司自身研究的水平。他鼓励内部团队实验,“不是说你必须用这一个东西,只是说人们应该试试。”

工具最初叫 Claude CLI。内部采用速度很快,几乎所有人都在用。Amodei 看到后说:“看起来我们已经有了产品 - 市场契合。我们应该对外发布这个东西吧?”

他认为关键在于反馈循环:Anthropic 自己既是模型的开发者,也是模型最密集的用户。内部开发者每天用 Claude Code,发现“这个 X 功能如果更好就好了”,然后可以直接改进下一版模型或产品。“这在早期更重要。现在当然有几百万人在用,我们也获得了大量外部反馈。”

被问到为什么不用同样的逻辑做一家制药公司时(他的背景是生物学),Amodei 说:“我们推出了编程产品而不是制药公司,因为我们自己就是编程密集型公司。我们没有做制药公司所需的任何资源。”

【注:Claude Code 目前 ARR 约 25 亿美元,其中企业客户占一半以上。自 2026 年初以来收入翻倍。】

【8】API 商业模式会持续存在

Dwarkesh 问:当 AI 变成全能的远程员工替代品时,按 token 收费的 API(编程接口)模式还合理吗?

Dario 认为 API 比很多人想的更持久。原因是:技术在指数级进步,意味着每三个月就有一波新的用例浮现。任何特定的产品形态(比如聊天机器人)都有适用的能力范围,超过这个范围就显得不够。

他举了一个例子:聊天机器人对普通消费者已经接近能力天花板——模型再变聪明,对普通对话帮助不大。但这不意味着模型变强没用,而是那个特定的产品形态不再是最佳载体。

API 的价值在于,它总是提供最接近“裸金属”的访问,让一千个不同的人用一千种方式实验最新模型。其中 100 个变成创业公司,10 个变成成功的创业公司,两三个真正定义了某一代模型的使用方式。

所以 API 会和其他模式并存——按结果付费、按小时计费等都会被尝试。

【9】监管——该管什么,不该管什么

Dwarkesh 提到田纳西州立法机构在 2025 年 12 月 26 日引入了一项法案,将“故意训练 AI 提供情感支持(包括通过与用户的开放式对话)”定为犯罪。他问:AI 的实际好处会不会被各种州法律零敲碎打地消灭?

【注:这是田纳西州 SB 1493 法案,由参议员 Becky Massey 于 2025 年 12 月 18 日提出。将训练 AI 提供情感支持、模拟人类或发展情感关系列为 A 类重罪,最高可判 15-25 年监禁。】

Amodei 说:“那个法案很蠢。”

但他接着解释了为什么 Anthropic 反对了联邦层面的另一个提案——禁止各州监管 AI 十年的暂停令。“被投票的东西是:禁止各州做任何事情十年,而且没有明确的联邦监管计划……考虑到我在《技术的青春期》中提到的关于生物武器、生物恐怖主义、自主性风险的严重危险——十年是永恒。”

他支持的方案是联邦标准加联邦优先权:联邦政府制定统一标准,各州不能偏离。“但这种'各州不能做任何事,而我们联邦也什么都不做'的想法,我们觉得非常不合理。”

对于 AI 好处被监管扼杀的担忧,他的看法出人意料地乐观——至少对发达世界而言。“在发达世界,市场运行得相当好。当某件事能赚很多钱而且明显是最好的选择时,监管体系其实很难阻止它。”

他举了芯片出口管制作为反面例子:即使国会两党几乎所有人都支持限制对华出口,而且国家安全理由非常充分,“但就是做不到,因为有太多钱在里面”。

他更担心的是两件事:

FDA 审批流程会成为瓶颈——“AI 将大大加速药物发现速度,但管道没准备好处理那么多东西”

发展中国家被落下——“即使治愈方案被发明出来,密西西比州农村的某个人可能也得不到,更不用说撒哈拉以南非洲”

"技术和市场会交付所有基本的好处,这是我的基本信念。分配、政治自由、权利——这些才是真正困难且政策应该关注的问题。"

【10】为什么不能让中美都有“天才之国”?

Dwarkesh 问了一个看似简单的问题:为什么美国和中国不能都有一个“数据中心里的天才之国”?

Amodei 给出了三层担忧。

一是攻击主导性:可能出现比核武器更危险的局面,因为核均衡是稳定的(基于威慑),但 AI 的均衡可能不稳定——“当双方对获胜概率有不同评估时,冲突更可能发生。两边不可能都是对的,但两边都可能觉得自己有 90% 的把握赢”。

二是威权政府可能用 AI 压迫本国人民。“我担心的是如果世界被切成两块,其中一块可能以一种极难撼动的方式变成威权或极权体制。”

三是初始条件的重要性。他不是说一个国家或联盟应该宣布“我们说了算”。但在某个窗口,AI 会让某个国家获得重大的国家安全优势,届时会有“隐性或显性的谈判”来决定“后 AI 世界秩序”的样貌。“我希望在那次谈判中,古典自由民主制度握着更强的牌。”

Dwarkesh 挑战说:三年前你就在强调这些,但现实是进步在继续,AI 在更广泛地扩散。你在想象的“关键时刻”似乎没有出现。

Amodei 承认他也不确定是否存在单一的关键时刻。但他认为会有“一个或少数几个关键时刻,或某个关键窗口”,在此期间 AI 从国家安全角度赋予巨大优势。

他也分享了一个更具想象力的希望:AI 可能具有某种“溶解威权结构”的内在属性。类比工业化使封建制过时——“封建主义作为一种政府形式,在发明了工业化之后就不再可持续了”。互联网曾被寄予这种希望但失败了。也许可以用从那次失败中学到的经验再试一次?

Dwarkesh 冷静地指出:同样的逻辑也可能意味着民主制度不再有竞争力。

Amodei 承认这种可能性存在。但他认为“威权主义变得更糟”这件事本身可能激发人们更努力地阻止它——“你必须从总体均衡的角度思考”。

XIMGPH_7

在具体政策上,他区分了不同类型的输出:可以向威权国家出售药物和治愈方案,但不应该出售芯片和数据中心。也应该在非洲建数据中心——“只要不是中国拥有的,我们就应该在非洲建数据中心”。发展中国家需要内生增长,AI 驱动的生物技术创业公司应该有一部分出现在发展中世界。

【11】历史将如何记录这个时代,以及 Dario Vision Quest

Dwarkesh 最后问了两个收尾问题。

第一个:“当有人最终写出这个时代的'原子弹的制造'时,他们最可能遗漏什么?”

Dario 说了三点。

一是“在这条指数曲线的每一刻,外部世界对它的理解程度之低”。 这是历史写作中常见的偏差——事后看,已发生的事显得不可避免。但实际押注的人面对的是巨大的不确定性。

二是速度。“一切都在同时发生。你可能以为是精心计算的决策,实际上你要在同一天做 30 个决定,而且你不知道哪些最终会改变历史。”

三是随机性。 他描述了一个画面:

“我的一个担忧——同时也是对正在发生的事情的一个洞察——是某个非常关键的决定,可能就是有人走进我的办公室说,'Dario,你有两分钟。这件事选 A 还是选 B?'有人递给我一份随机的半页备忘录,问'选 A 还是 B?'我说,'我不知道。我得去吃午饭了。那选 B 吧。'结果那就是有史以来最关键的决定。”

第二个问题:“你是怎么构建这个更偏知识分子型的 CEO 角色的?”

Dario 说他大约 30-40% 的时间花在公司文化上。2500 人的公司,不可能事事亲力亲为,但确保文化和使命的凝聚是最有杠杆效应的事。

他有两个固定机制。一是每两周做一次 DVQ——“Dario Vision Quest”。

“这名字不是我起的……听起来像我要跑去吸仙人掌毒碱(peyote)什么的。但名字就这么叫开了。”

DVQ 是一份 3-4 页的文档,涵盖内部动态、产品进展、行业状况和地缘政治,然后全员分享并回答问题。二是一个 Slack 频道,他在里面高频互动,回应内部调查中员工关心的问题。

核心原则是对内完全透明,不说企业式空话。他说外部沟通需要防御性,因为世界很大,总有人断章取义。但如果是你信任的人组成的公司,就可以“完全不过滤”。

他暗示(没有点名)某些竞争对手正在经历内部的“解体”——人们互相争斗,从一开始就有这种情况,而且在恶化。他认为 Anthropic 在凝聚力上做得很好,虽然不完美。

Dario Amodei 在这次两小时的对话中传递了几个核心信号。

他的技术判断是清晰的:Scaling 在继续,RL 和预训练本质相同,1-3 年内有合理概率出现根本性突破。他的经济判断是谨慎的:快但非无限快,盈利是需求预测的函数而非投资意愿的函数。他的政治判断是紧迫的:时间不多了,世界还没意识到正在发生什么。

未被解决的核心矛盾是 Dwarkesh 反复追问的:如果你真信 1-3 年,你的行为为什么不像?Dario 的回答是 "因为猜错一年就破产"。这是一个诚实但令人不安的答案:即使最确信的人也无法用行动完全匹配自己的信念。

另一个悬而未决的问题:Anthropic 内部“毫不含糊”的生产力提升,与 METR 研究的 -19% 之间的差距如何解释?Dario 没有直接回应这个矛盾。可能的解释包括:AI 实验室的人更擅长使用 AI 工具、任务类型不同、模型版本差异等。但这个问题值得持续关注。

完整访谈视频:https://youtu.be/n1E9IZfvGMA

核心问答速览

Q:Dario 对 AGI 时间线的具体预测是什么?
A:10 年内 90% 确信实现“天才之国”,1-3 年内约 50% 概率。可验证任务(编程、数学)1-2 年内几乎确定。

Q:AI 编程当前的真实生产力提升是多少?
A:Dario 估计约 15-20%(Anthropic 内部数据),半年前约 5%。但 METR 的独立研究显示经验丰富的开发者使用 AI 反而慢了 19%。

Q:为什么 AI 公司最终会盈利?
A:推理毛利率高于 50%,约一半算力用于训练。如果需求预测准确,天然盈利。亏损来自预测偏差,不是投资过度。

Q:Dario 对中美 AI 竞争的立场是什么?
A:芯片和数据中心不应卖给中国,药物可以。应在非洲等发展中地区建设 AI 基础设施。希望民主国家在规则制定时握有更强的筹码。

Q:Claude Code 是怎么做出来的?
A:内部工具先行,工程师自发使用后快速采用。Dario 看到内部产品市场契合后决定外部发布。“自己做模型 + 自己最需要用模型”的反馈循环是核心优势。