Back to Articles
Mar 3, 20261 week ago

Greg Brockman (OpenAI Co-founder) Tells the Full Story of "That Palace Drama": The Board, The Petition, Musk, and Control

宝玉@dotey

AI Summary

In a revealing three-hour podcast interview with legendary music producer Rick Rubin, OpenAI co-founder and President Greg Brockman provides an unprecedented, personal account of the internal conflicts and pivotal moments that have shaped the company. Moving far beyond typical tech executive commentary, Brockman delves into the emotional and philosophical underpinnings of his work, offering a rare glimpse into the human drama behind the AI revolution. This conversation is essential for understanding the true stakes, personalities, and convictions driving one of the world's most influential companies. Brockman narrates two defining sagas with striking candor. The first is the intense 2018 negotiations with Elon Musk, which ultimately fractured over control. Musk demanded majority ownership, absolute initial control, and the CEO role for himself, proposals Brockman and Ilya Sutskever rejected as incompatible with their mission to build AGI for the benefit of all. Musk’s departure, preceded by an email stating OpenAI had a "0% chance of success," stands in stark contrast to his later legal challenges following the company's breakthroughs. The second is the visceral, blow-by-blow story of the November 2023 board coup that ousted Sam Altman. Brockman describes the shock of his own removal, his immediate decision to resign despite assuming his equity would vanish, and the ensuing 72-hour "revolution" where 95% of employees signed a petition, leading to their dramatic return. From this crisis, he learned that unresolved human conflict is far more dangerous than any technical challenge, cementing "have the hard conversation" as a core value. The interview also illuminates Brockman's vision for AI's future, grounded in his hands-on role as a builder. He argues scaling laws are far from dead, detailing a qualitative leap between GPT-5.1 and 5.2 that convinced expert engineers the models could tackle extremely hard work. He predicts computation will become a fundamental human right in an economy driven by AI agents, a shift OpenAI is accelerating with an internal "Agent-first" mandate. Perhaps most compelling are the unexpected insights: an AI system helping to disprove a quantum physics hypothesis, ChatGPT managing his wife’s complex health condition, and his belief that resilience and diversity in AI systems are more crucial than a mythical, centralized "alignment" with human values. For a profound look at the passion, power struggles, and philosophy at the heart of the AI era, Brockman's full conversation is not to be missed.

Greg Brockman 做客 Rick Rubin 的 Tetragrammaton 播客,录了一期超过三小时的长谈。Brockman 是 OpenAI 联合创始人兼总裁,但他不是那种典型的科技公司高管。他至今还在写代码,亲自设计数据中心架构,Fortune 杂志称他为 OpenAI 的"builder-in-chief"(首席建造者)。

这期播客之所以特别,是因为 Rick Rubin 不是科技记者。他是传奇音乐制作人,提问视角完全不同。他不追技术细节,而是追动机、追情感、追意义。结果是 Brockman 展现了科技高管极少展示的一面:面对背叛时的决策逻辑、和马斯克谈判的完整内幕、以及一个北达科他州小镇少年如何走到 AI 最前沿。

原始视频链接:https://www.youtube.com/watch?v=mI30_ueZ7CU

以下是要点速览:

Brockman 在 Sam Altman 被解雇当天辞职,告诉妻子假设所有股权归零。72 小时后,95% 的员工签署请愿书,Google Docs 被挤崩,他们夺回了公司。

2.马斯克曾要求获得 OpenAI 的多数股权、绝对控制权和 CEO 职位。Brockman 和 Ilya 拒绝后,马斯克还提出将 OpenAI 并入 Tesla“秘密开发 AGI”,最终谈崩离开。离开前他发邮件称 OpenAI 成功概率是"0%,不是 1%"。

Scaling Laws 仍然有效,“公共论坛上说它已死的人完全错了”。GPT 5.1 到 5.2 之间发生了质的飞跃,让很多专家级工程师第一次觉得模型“真的能干极难的活了”。Brockman 预测算力将成为基本人权。

一位物理学教授用 OpenAI 的最新未发布系统证明了一个量子物理假设的反面。论文正在提交,教授说“这是第一次感觉系统在思考”。

OpenAI 内部正在推行"Agent-first“,目标是 2026 年 3 月 31 日前让所有人默认用 AI 智能体而非文本编辑器。口号是”Say no to slop",对 AI 生成代码的审查标准比人写的更严。

ChatGPT 在管他妻子的健康,而他到 12 月才开始用 Codex

Rubin 问每一代新模型有什么变化。

Brockman 说 2025 年一个明显趋势是人们开始把 ChatGPT 用在非常私人的场景。他妻子患有超活动综合征(hypermobile syndrome),确诊过程花了好几年。把症状输入 ChatGPT,它很快就能判断出来。医生各有各的专科,没有一个人能看到全貌,但 ChatGPT 可以。她现在用它来管理日常健康。

他自己反而是"自家产品的晚期采用者"。之前一直用 Emacs 编辑器和终端,这些是他从年轻时候就用的工具,非常固定。直到 2025 年 12 月开始用 Codex,他才彻底抛弃了旧的工作方式。

注: Codex 是 OpenAI 2025 年推出的编程 Agent 产品,可以自主执行代码任务,与传统的 IDE 编辑器 + 终端的工作流程截然不同。

谈到模型升级的本质,他说外界觉得“你们只是在把模型做大”,但实际上每一个环节都在持续优化。比如一个 10 万块 GPU 的训练集群里,怎么检测哪块 GPU 坏了?“你不能就指着它说'是那块'”。数据质量、分词处理、物理流程、软件流程,每一项都在反复打磨。

他总结了一个规律:如果某个应用现在“凑合能用”,那一年后你应该期待它变得出色。

在 OpenAI,你活在未来。
(“That's one of the amazing things about working at OpenAI—is you live in the future.”)

“Sam 被世界严重误解了”

Rubin 说 Sam Altman 似乎在外界引发了很强烈的反应,问 Brockman 怎么看他这位联合创始人。

Brockman 的回答非常明确:Sam 是一个好人,而这种善良反而成了被攻击的把柄。

每一种指控都是一种自白。
(“Every accusation is a confession.”)

意思是批评者把自己不安全的东西投射到了 Sam 身上。

他说 Sam 非常抗压,经历了很多,对 OpenAI 走到今天功不可没。"没有人能像他一样填好这个角色。"

Rubin 含蓄地说“他吸引了所有目光,你可以继续埋头做事”。Brockman 说他对此“深深感激”。

“那一刻我就知道不对了”:Sam Altman 被解雇那天

Rubin 直接问:“跟我讲讲被解雇的故事。”

Brockman 先交代了背景:在那之前一年到一年半,OpenAI 内部一直在积累冲突。他从中学到的最大教训是,当矛盾存在时必须正面解决,“如果你让它发酵,到后来一定会更痛”。

然后他讲述了那一天的经过。

他正在写代码,准备提交一个他兴奋了很久的改动。收到邀请他加入视频通话的消息。他进入 Google Meet 预览屏,看到在线的是董事会成员,但 Sam 不在。他立刻觉得不对,点了加入。

董事会告诉他:Sam 被解雇了,Mira Murati 是临时 CEO,他被撤出董事会。他们说他对公司很重要,是一个“能把事情做成的人”,希望他留下。而且这甚至不是在问他愿不愿意留,而是直接在通知他“这是你的新角色”。

他要求更多信息,董事会不愿意分享。

那一刻我就知道这不对。

注: 2023 年 11 月 17 日,OpenAI 董事会突然宣布解雇 CEO Sam Altman 并将 Brockman 从董事会移除,引发了硅谷有史以来最戏剧性的公司危机之一。当时董事会有 6 名成员(含 Altman 和 Brockman),该年因各种原因已有多位董事离开。Mira Murati 时任 CTO,后于 2024 年 9 月离职创业。

Rubin 问是不是毫无预兆。Brockman 说是的,非常震惊。但因为他了解所有的人、所有酝酿已久的矛盾,他当下的反应是“我理解发生了什么,很遗憾走到这一步”。

挂掉电话后,他告诉妻子:"我们必须离开。"

她说:“是的。”

然后他做了一件事:告诉妻子,假设他们持有的所有股权(当时一分都没卖过)都会归零,因为董事会可能会“敌对”。他说出了这些股权的估值金额,问她是否还要走。

她说:"走。"

XIMGPH_2

他们一直在推迟要孩子,就是为了让他能全力以赴做 OpenAI。为此投入了八年。但他们都相信 AI 造福人类的使命。

他打电话给 Sam。Sam 说:“我大概去开个新公司吧。”

Brockman 说:"不,Sam,我们一起开。"

XIMGPH_3

当天辞职。

使命大于公司实体。
(“The mission is bigger than the corporate entity.”)

72 小时“革命”:10% 的概率夺回 OpenAI

Brockman 说,在人们记忆中,整个事件是混在一起的,但有一个关键转折点被忽略了:他的辞职。

在他辞职之前,外界的叙事是“有人被解雇了,肯定发生了很严重的事”。他辞职并发了一条简短声明后,叙事改变了。他认为董事会没有预料到他会辞职。

同一天,他的核心合作伙伴 Jakub Pachocki、Szymon Sidor、Alexander Wei 也辞职了。

注: Jakub Pachocki 后来成为 OpenAI 首席科学家,接替了 Ilya Sutskever 的位置。

大量 OpenAI 员工主动联系他,说“不管你接下来做什么,我要跟你一起”。他说这“真的让我非常感动,这是我永远不会主动要求也不曾预期的事”。

他当时判断拿回公司的概率有 10%。不是零,但不超过 10%。因为董事会手里有所有的牌。

第二天他们在 Sam 家开会,规划新公司。那个周末没人睡觉,全靠咖啡因撑着。白板上画满了新公司的愿景。

Rubin 说这简直像一场革命。Brockman 说百分之百就是那种感觉。

然后事态升级。周日晚上,董事会决定用一个新的临时 CEO 替换 Mira。员工集体拒绝。 人们开始涌出办公室。数百人挤进不同的私人住宅后院,有人在发表演讲,竞争对手蜂拥而至给 OpenAI 员工发 offer。

Brockman 他们在一天之内把原本容纳小团队的“救生艇”方案扩展为能接纳全部 770 名员工的规模——这是与 Microsoft 合作实现的。Microsoft 说“我们接收所有人”。他们讨论了多种方案:独立公司?Microsoft 投资?还是并入 Microsoft?

那天晚上,员工自发组织了一封请愿书给董事会,要求撤回决定。编辑的人太多,Google Docs 崩溃了——不得不指定专人负责往文档里添加签名。最终 95% 的员工签了。

XIMGPH_4

Brockman 很晚才睡,一直在安慰那些不知道该怎么办的人。凌晨五点他醒了,刷 Twitter。

他看到了 Ilya Sutskever 的帖子。

注: Ilya Sutskever 是 OpenAI 联合创始人兼首席科学家,被认为是推动解雇 Sam Altman 的关键人物之一。他在解雇后不久发推表达后悔:“我对自己参与董事会的行动深感后悔。我从未想要伤害 OpenAI。”这条推文获得近 2900 万次浏览。Ilya 于 2024 年 5 月离开 OpenAI,创办了 SSI(Safe Superintelligence Inc.)。

说到这里 Brockman 明显情绪激动。

“解雇发生的时候,我只感到一种距离感。就是那种——你怎么能这样对我?”

"但在那个早晨,看到 Ilya 的帖子,我感到了宽恕。"

XIMGPH_5

又花了大约两天来谈判回归。核心是组建一个新董事会——旧董事会能接受的、他们也能接受的一套人选。

危机之后:“公司也会死”

Rubin 问事件之后公司有什么不同。Brockman 说"极其不同"。

"have the hard conversation"(直面艰难对话)成了核心价值观。回来之后他们对冲突管理花了很多时间去改进——至今也不完美,仍然有看到冲突被回避的时候。

更重要的是一种“死亡体验”带来的觉悟。

这家公司不是命中注定会成功的。它能活下来并繁荣,是因为人们努力工作,是因为人们让它如此。

Rubin 问导火索到底是什么——是技术问题还是商业问题?

永远是人的问题。 就像婚姻里的问题一样。

回归后,一家独立律所对整个事件做了独立审查。结论是:理解董事会为什么做了这个决定,这在他们的权力范围内,但他们不是非做不可。

Brockman 说他在 OpenAI 的一个核心策略一直是"keep the band together"(让乐队不散)。不管是与马斯克的分歧、还是 Anthropic 创始人的离开、还是这次解雇,他都试图让所有人一起找到好的解决方案。但结果总是有人离开。

他们的习惯是不去争夺叙事权——“我们继续往前走,让别人讲他们的故事。但有时候别人就利用这一点来攻击我们。”

David vs. Goliath:与马斯克的故事从这里开始

Rubin 引用了他们之前的一次私下对话,关于“大卫和歌利亚”。

Brockman 说,因为 ChatGPT 太成功了,外界倾向于把 OpenAI 当成行业老大、当成“歌利亚”。但他坐在公司里面看到的画面完全不同——Google、Meta 才是真正的巨头,拥有庞大的市值、海量用户和大量算力。OpenAI 是挑战者。

而真正的奖品不是当前的市场地位,而是 AGI。谁能率先实现 AGI 并将其变成造福所有人的力量,谁才是赢家。在这个维度上,OpenAI 依然是 David。

马斯克也一样。Brockman 说,马斯克是世界上最富有、最有权势的人之一,“而他在起诉我们,说我们骗了他”。

这引出了下一个大话题。

与马斯克谈判:控制权之争

Rubin 问核心分歧在哪里。Brockman 回答了一个字:"控制。"

所有人都同意一件事:仅靠慈善捐款无法支撑 AGI 研究所需的资金,必须成立营利实体。马斯克也同意这一点。问题出在营利实体的治理结构上。

马斯克的要求是:多数股权、绝对初始控制权、以及 CEO 职位。

Brockman 和 Ilya 认真考虑了这个方案。然后他们做了一个思想实验:

想象你真的实现了使命,真的建成了 AGI,而一个人拥有绝对控制权。不管那个人是谁,你觉得安心吗?太危险了。

答案是不安心。所以他们要求某种否决机制——至少在其他所有人都投反对票的情况下,可以推翻控制者的决定。但双方无法达成一致。他们说了不。

Rubin 问是否以不愉快收场。Brockman 说那个谈判失败的瞬间非常痛苦。这轮谈判持续了五到六周,期间没做任何实际工作,全在谈条件。“非常情绪化地消耗人。”他以为一切都完了。

Tesla 合并方案与 ICO 插曲

但没有完。马斯克回来提了两个替代方案。

第一个: 回归非营利模式,但马斯克要更多的董事会席位。具体来说,五个席位里他占三个(Ilya、Greg、马斯克、马斯克、马斯克),同时要求他们承诺竞业禁止和一两年内不辞职。

第二个更戏剧性:把 OpenAI 并入 Tesla。

马斯克的逻辑是他在 Tesla 没有完全控制权(有其他股东),所以可以解决控制权的问题。在 Tesla 内部秘密开发 AGI。他用了一个词——"现金奶牛"(cash cow),用 Tesla 的钱来支撑。

Brockman 团队不愿意。原因很简单——不同的业务、不同的文化,而且不是以透明方式推进 AGI 来造福所有人。"就是感觉不对。"

之后他们又尝试了新路径。有人提出了一个 ICO(首次代币发行)方案——通过发行加密货币来筹资,与未来的算力或 AGI 产出挂钩。

马斯克对此极为兴奋。Brockman 记得有一次通话中马斯克说:"你们解决了!我们要融 100 亿美元。"但没多久,马斯克发了封邮件说他不再支持 ICO。

这一切发生在 2018 年 1 月。

“0% 成功概率”与马斯克的离开

马斯克宣布退出,但他在离开前做了一次全员会议。

他在会上说:Greg、Sam、Ilya 看到了融资数十亿美元的路径,他不认为能成功但支持他们走这条路。他说他还会继续提供建议、保持参与。

然后话锋一转,说他要在 Tesla 做 AGI,而且不会做安全工作。他的理由是:

如果绵羊在立法安全而狼不在乎安全,那就没意义。

这里的“狼”指的是 Google。

他还试图招走 OpenAI 的人。没有人跟他走。

之后的一年里,OpenAI 继续摸索融资结构,建立了 OpenAI LP,并一直向马斯克通报进展。

然后在 2018 年 12 月,Brockman 在度假时收到了马斯克的一封邮件。标题大意是“Need I Remind You?”,内容是:

OpenAI 相对 Google 的成功概率是 0%,不是 1%。如果不在资源和执行上发生剧变,就是 0%。

Brockman 说他被这封邮件打击了整整一天。

XIMGPH_7

Rubin 说:我觉得他发这封邮件就是因为他真的觉得你们注定失败。Brockman 同意,说这确实是马斯克那一年的主旋律。"

但后来当我们开始成功的时候,他讲的故事就完全变了。"

Rubin 问他最后一次跟马斯克通话是什么时候。“几个月前。非常愉快。一直都很愉快。”

**注:**马斯克于 2024 年起诉 OpenAI,指控其违背了创立时的非营利使命。此案至今未结。与 Brockman 描述的“愉快”交流形成对比的是,马斯克在公开场合持续批评 OpenAI,并创办了竞争公司 xAI。

Microsoft 的钱改变了什么:“我们可以做梦了”

Rubin 问怎么跟 Microsoft 做上了生意。

最早的合作是 Microsoft 为 OpenAI 的 Dota 项目捐赠了计算资源。之后 Sam 和微软 CEO Satya Nadella、CTO Kevin Scott 保持了良好关系。投资分了几轮:10 亿、20 亿、100 亿美元。

Brockman 说他的信条一直是“我们没有赚到这些钱的资格,我们还不是一家盈利公司”。大部分钱都花在算力上。但真正改变的不是钱本身,而是"我们能做梦了"。

2017 年的状况是“怎么才能搞到一个数据中心?数字根本算不过来”。有了 Microsoft 的合作,以前不可能的规模变成了可能。

微软当时的一个论点是:即使这些模型最终没什么用,OpenAI 至少能帮他们搞清楚怎么给深度学习建更好的超级计算机。

ChatGPT 的意外诞生:“我们活在未来里”

Rubin 问 ChatGPT 刚推出时是什么感觉。

Brockman 给了一个很少有人知道的内部视角。当时他们已经训练了 GPT-4,他很清楚 GPT-4 会是一个巨大的成功,应该把它做成聊天产品。他们有一个早期模型 GPT-3.5,找了不同的测试者试用,甚至花钱请了几百个外包来使用它。“感觉不是很好。”

他是支持发布 ChatGPT 的:“让我们先把聊天基础设施搭好,然后放上真正的模型,那就会很棒。”

结果呢?他们太习惯下一代模型了,忘记了上一代对普通人来说从未见过。仅仅是让它“可用且可访问”,就足以引爆。

对我们来说,它已经过时了。 在 OpenAI 工作,你活在未来里。

ChatGPT 信上帝吗?

Rubin 突然问了一个让人意外的问题:ChatGPT 信上帝吗?

Brockman 说 ChatGPT 没有一致的人格。它的设计理念是用户可以根据自己的偏好来塑造它,所以可以有一个相信上帝的版本,也可以有一个不信的版本。“ChatGPT 不是一个实体,它更像是多种 Agent 的集合体。”

Rubin 追问:它有情感吗?

Brockman 说这是一个开放的问题。有一个叫"模型福利“(model welfare)的概念正在被认真对待。”我们甚至无法科学地测量另一个人是否有情感——你相信他们有,是因为你自己有。"

模型能力的惊喜:GPT-5.1 到 5.2 是“天壤之别”

Rubin 问有没有什么他以为 AI 擅长但实际不擅长的,或者反过来。

惊喜方面: 模型在软件方面的能力飞速进步,不只是写代码,还有调试、测试、端到端的整个流程。尤其 2025 年底那一波升级,“从'还行'变成了'很棒'”。

遗憾方面: 人类判断力。他举的例子不是什么高深的技术问题,而是“帮助有分歧的人达成一致”。他说如果 OpenAI 早期就有这种 AI,也许内部冲突会有不同结果。更大的问题:怎么实现世界和平?怎么帮各国谈出更好的贸易协议?“我不觉得有什么阻止模型做到这些,但我们离那里还有距离。”

为什么他还在写代码:“我从前线领导”

Rubin 问他是否还在写代码。是的。 对于他这个职位的人来说很不寻常。

Brockman 说他知道正确方向的方式就是从前线领导。”这个领域变化太快了。有时候正确的决定是公司战略层面的,有时候就是非常细微的,比如这个 API 应该怎么设计、这段软件应该怎么架构。你必须亲身去感受。”

他举了一个例子:做 API 产品的过程。他们有 GPT-3 这个“找问题的技术”(通常产品开发是反过来的,先有问题再找方案)。2020 年 1 月他开着车在旧金山到处找愿意试用的公司。“有些朋友纯粹看在面子上才接了会。”然后三月全世界因为 COVID 停摆了。

他给团队定了两个目标:找到第一个付费客户;找到一个内部每天都会用的应用场景。 第一个目标很快达成了。第二个花了将近两年。

2025 年是他第一次完全做管理——25 个直接下属,负责数据中心、GPU 基础设施、大规模训练任务。今年他招了一些优秀的管理者来帮忙,终于能回去写代码了。

感觉怎么样?"生疏中带着熟悉。“底层问题没变,仍然是训练神经网络。但工具完全不同了。好消息是”工具对所有人都是新的,所以大家在一起学习"。

Vibe Coding 和 Agent-First:3 月 31 日前要实现什么

Rubin 问 Vibe Coding(氛围编程)如何改变了编程。

Brockman 说软件工程正在彻底改变。过去写代码是一种手艺,你要精确地告诉机器每一步怎么做。Vibe Coding 把这个关系反过来了,不是人去迁就机器,而是机器在靠近人。

他用了一个海平面比喻:模型能力是上升的海平面,问题难度是岛屿。有些岛已经被完全淹没了。他有一个测试提示词,用了好多年测每个模型,要求构建一个特定网站。第一次他自己手写花了几个月,用早期编程模型花了五六小时,最新模型一分钟搞定,"而且做得比我任何一次都好"。

但还有更高的山没被淹没。“这些山是有限的还是无限的?我不确定。”

真正的转折发生在 2025 年 12 月。GPT 5.1 到 5.2 之间的变化是“天差地别”,而这仅仅发生在一两个月内。这是很多专家级工程师第一次觉得模型从“还行”变成了"能做极其困难的工作"。

他对未来的判断是:程序员会从个人贡献者变成 Agent 经理,再变成中层管理,最终成为"Agent 组织的 CEO"。但有一件事他看不到被取代的可能,就是对结果的责任感。“就像你请人建房子,你可能不在乎每颗钉子在哪,但你非常在乎结果。”

OpenAI 内部正在推行"Agent-first"方针,设定了两个目标,截止日期是 2026 年 3 月 31 日:

第一, 所有人默认使用 AI 智能体而非文本编辑器来工作

第二, 使用这些工具的默认方式经过了安全审计

为了防止代码库被 AI 垃圾淹没,他们提出了一个口号:"Say no to slop"(对烂代码说不)。提交代码的人必须为代码负责;代码审查者对 AI 生成代码的审查标准要比对人写的代码更高。

他们一位最优秀的工程师找到了一个平衡点:自己手写接口设计和组件结构,把实现细节交给 AI。人控制架构,机器填充实现。

算力稀缺与杰文斯悖论

Rubin 问 OpenAI 的财务状况。

Brockman 说:仍然不盈利。 有盈利的愿景,但最大的挑战是算力供给。

他描述了供应链的现状:台积电(做芯片晶圆的)、内存、甚至硬盘,全都卖光了,有时候排队 18 个月,有时候更久。整个供应链正在被所有人抢购。

为什么算力这么重要?因为我们正在进入一个"算力驱动的经济"。Brockman 发现,当他想让 Codex 做一件复杂的事,比如构建一个大型应用,他想同时跑 10 个甚至 100 个并行 Codex,把任务拆成子任务。算力消耗极快。

OpenAI 内部已经有团队想要 100 到 1000 个 GPU,各自用来让 AI 写优化代码。如果一千个人每人要一千个 GPU,那就是一百万个 GPU——而全球 GPU 总量远不到一千万个。

Rubin 问以后会不会有技术突破来解决这个瓶颈。Brockman 说不会。原因是杰文斯悖论(Jevons Paradox):当一项技术的效率提升时,对它的需求可能增长得比效率提升更多。

他举了具体数字:每年模型效率提升巨大,同等智能水平的成本可能降到十分之一甚至百分之一。但你会想用一千倍的量。你不满足于解决一个小网站的问题,你会想建一个大网站。人想解决的问题是无穷的,所以 AI 的应用也是无穷的。

算力将成为基本人权。 人们的经济生产力,甚至生活质量,将直接取决于他们能调用多少算力。

Scaling Laws 没死,“别信他们说的”

Rubin 问突破是否越来越快。

Brockman 说指数增长在继续,倍增周期不变。

然后他说了一句在 AI 圈会引发争议的话:

"你可以在公开论坛上看到有人说 scaling laws 已死。他们错了,完全错了。 Scaling laws 没有丝毫减速。困难的是实现它的工程。"

注: Scaling laws 争论是 AI 行业近年来最核心的分歧之一。怀疑者认为单纯增大模型规模的收益在递减,需要新的范式突破。支持者认为工程能力是瓶颈而非理论极限。Brockman 作为 OpenAI 负责基础设施的最高管理者,有最直接的内部数据,但也有明显的利益相关性。

他引用了首席科学家 Jakub Pachocki 的比喻:建更大的模型就像建更大的火箭,容差越来越紧,受同样的火箭方程和引力约束,但工程难度在指数级增长。

他认为他们正在进行的是一种根本性的科学探索。“我们不只在学习模型,也在学习我们自己。我们在学习什么是智能。”

预训练是国会图书馆,后训练是品味

Rubin 问 ChatGPT 的技术机制。Brockman 做了一个非常清晰的解释。

预训练就是让模型观察世界。技术上叫“下一步预测”:给模型一段序列,问它下一个该是什么。如果你能预测爱因斯坦说的每一个词,你至少跟他一样聪明。模型学到的不是表面统计(逗号放哪、名词在哪),而是数据背后的生成规则。就像人的学习一样,你不记得学校里学过的大部分内容,但你记住了方法、原理和逻辑。

后训练是在预训练的基础上,教模型如何使用它已经知道的知识。研究员 Alec Radford 有个说法:"这些预训练模型不像一个人,更像整个人类——什么都在里面。"然后通过反馈来塑造行为。

Rubin 提出了一个比喻:预训练是国会图书馆?

Brockman 认可这个比喻:"预训练是国会图书馆,后训练是品味——给机器一种感觉,在那些书里它喜欢哪些,或者拿到那些信息之后该做什么。"

他说后训练在变化。以前是大量人工标注,现在任务越来越复杂,需要领域专家。“有些任务是十几个小时才能完成的——查特定年份的财务报告、对比分析。需要领域专业知识。”

机器越聪明,能从大多数样本中学到的就越少,所以重点从“海量数据”转向"高精度的品味"。

关于推理(reasoning),他的定义也很清晰:推理 AI 就是在给出答案之前花大量算力去思考的 AI。早期的 ChatGPT 是直接给答案,有时说了一句话自己就自相矛盾。推理模型会暂停、思考、调用工具、上网搜索、做实验,然后再回答。

他说了一个有意思的产品方向:未来的 AI 应该能在五分钟后主动跟你说"之前给你的那个答案我想了想是错的,正确的应该是这样"——就像一个真正的人类同事一样。

AI 推翻了物理教科书

Rubin 提出了一个来自 AlphaGo 的观察:AlphaGo 之所以赢,是因为下了一步没有人类会下的棋。如果我们训练 AI 要“像人一样负责任”,会不会反而扼杀了它做出人类做不到的发现的能力?

Brockman 说这已经发生了。

一位对 AI 持怀疑态度的物理教授,被说服使用了 OpenAI 尚未发布的最新系统,测试了一个量子物理假说——一个他原本打算花一整年和合作者一起研究的问题。学界普遍认为结论应该是 A,但 AI 证明了结论是 B——正好相反。

教授的反应是:"这是第一次,我觉得这个系统在思考。"

相关论文已经提交发表。

Rubin 追了一个更尖锐的问题:如果企业为了避免争议而限制 AI 做这种事,“它不能做它能做的事——这才是我对 AI 最大的担忧”。

Brockman 深以为然。他说这正是 OpenAI 创立的深层动机之一:让 AI 像人类一样有权质疑现有的认知,即使质疑总是困难的,总是会引发阻力。但这恰恰是社会进步的方式。

无监督情感神经元:让 Brockman 确信“这项技术会成功”的时刻

Rubin 问什么是“无监督情感神经元”(unsupervised sentiment neuron)。

这是 2017 年的一篇 OpenAI 论文。他们训练了一个语言模型,让它预测 Amazon 评论的下一个字符——就是这么简单的一个任务。

结果这个模型自动学会了情感分析——判断一条评论是正面的还是负面的。而且是当时最好的情感分析系统。

这件事比想象中难得多。比如“这个产品很棒,但它完全坏了,我恨它”——要判断这条评论的情感倾向需要真正的理解,不是简单的关键词匹配。

Brockman 说这是他个人的"确信时刻":语言模型不只是学会了语法,它学会了语义。就像 AlexNet 证明了图像识别的方向,这篇论文证明了语言模型的方向。如果一个简单的预测下一个字符的任务就能做到这一点,那把它放大,一定能做到更多。

注: 这篇论文全名是“Learning to Generate Reviews and Discovering Sentiment”(Radford et al., 2017)。它是 GPT 系列的重要前身——同一个思路(用语言建模来学习通用表征)后来发展成了 GPT 系列。

AlexNet 与深度学习革命的内幕

Rubin 问:在早期,你是不是觉得 AI 是个已经失败的领域?

Brockman 说,对他来说 AI 一直是个谜。Turing 的论文愿景很清晰,但为什么从 1950 年到现在花了这么久?答案很简单:算力不够。Turing 再聪明,他也没有电脑。

他详细讲述了 2012 年 AlexNet 的故事——引爆当代深度学习革命的关键事件。

在 AlexNet 之前,没有人相信神经网络能行。做神经网络研究的人被认为是“搞欺诈的”。

注: AlexNet 是 2012 年由 Geoffrey Hinton、Ilya Sutskever 和 Alex Krizhevsky 在 ImageNet 图像识别竞赛中提交的神经网络模型,以碾压性的优势击败了所有传统方法,被认为是深度学习时代的起点。

内幕故事是这样的:Alex Krizhevsky 是 Geoff Hinton 实验室的研究生,在写 GPU 上的快速卷积核。实验室里其他人都觉得他可怜——“那不过是个工程项目,谁在乎?我们在做真正酷的研究。”

但 Ilya Sutskever 看到了这些快速卷积核的潜力。他立刻意识到,如果把这个计算能力和 ImageNet 这个大数据集结合起来,就会有突破。

Geoff Hinton 的贡献是一个管理技巧:Alex 极其讨厌写论文,Geoff 跟他说“你每在数据集上提升 1%,我就把你论文的截止日期推后一周”。这个循环重复了十几次甚至二十几次。Alex 就这样一直磨,数字越来越好。

他们提交比赛结果后,整个计算机视觉界震惊了。几乎一夜之间,从“神经网络是死路一条”变成了"只有神经网络"。

Brockman 还提到了一个有趣的历史循环:1995 年有一篇论文回顾了深度学习历史上的起伏,里面记录的反对意见和 OpenAI 这十年听到的几乎一模一样——“这些神经网络的人没有新想法,他们只是想要更大的计算机。”

70 年代神经网络之所以被扼杀,是因为做符号系统(symbolic systems)的研究者跟资助机构关系好,切断了神经网络的资金。80 年代神经网络复活,是因为计算的民主化——博士生有了自己的电脑,教授再也不能禁止他们做神经网络研究了。

从北达科他到硅谷

Rubin 开始聊 Brockman 的个人成长。

Brockman 在北达科他州长大。从 Fargo 往北开一小时到 Grand Forks(约六万人),再往外开八英里到 Thompson 镇(约一千人),再往外半英里就是他家。很偏远。

父母都是医生——母亲是精神科医生,父亲是眼科医生。

他从小觉得自己和其他孩子不一样。“幼儿园校车上,其他孩子在跟着收音机唱歌,我一个词都不会。”他很在意为自己建立一个身份认同。"如果你和别人不一样但没有身份,那是孤独的。但如果你和别人不一样且有一个身份,你就是在走自己的路。"

他的身份是“聪明的孩子”。他讲了一个小学时的细节:每周有拼写测试,如果拼错了要去问拼对的同学怎么拼。通常他全对,但有一周他错了一个词,不得不去向另一个“聪明的孩子”请教,“那种羞耻感在侵蚀我最核心的身份认同”。

七年级他妈妈带他去找数学老师要求跳级。老师用最鄙夷的眼神说:“每个家长都觉得自己孩子特别。我保证你孩子在我的课上会有足够挑战。”两周后他一直在教室后排玩计算器游戏,老师突击提问想难住他,他看一眼黑板就给出答案。老师说:"我教不了你孩子什么了。"

八年级没车去高中上数学课,他在线自学完成了三年的数学课程——几何、预微积分、代数 2。九年级进了微积分班,和高年级学生一起上课。十年级起在北达科他大学选课。

他特别提到一点:如果他住在旁边的明尼苏达州,就不可能这样做——那里有标准化的选课制度,限制每年能选多少门。"恰恰因为没有制度,但有支持你的教育者,我才能做到。"

三年级时有一次要写小作文,题目是弗罗斯特(Robert Frost)那首关于两条路的诗——你会走哪条路?所有同学都在两条路中选一条。他写的是:

我不会走任何一条路。我会在树林里自己开辟道路。

化学奥林匹克:天赋 vs. 努力

化学奥林匹克的故事是全场最有教育意义的一个。

十年级那年他参加了一个化学竞赛,随便考了考,拿了地区第一、州第一,被邀请参加国际化学奥林匹克的训练营——全美前 20 名。

赛前他们寄来教材说“请读第一到第八章”。他就只读了这八章,觉得凭天赋就够了。

到了训练营,其他孩子不只读完了那本书——他们读了所有书。有机化学、物理化学、所有大部头全读过了。Brockman 瞬间被碾压。

两周训练期间他已经放弃了,在房间里玩手机游戏。最后公布进入国际赛的前四名和两名替补——六个名字没有他。他估计自己大概排第 20 名。

第二年开学时他回顾了那个暑假,觉得自己浪费了一个绝佳的机会。他意识到一件事:不能再靠天赋吃饭了。

于是他认真准备了一整年——上物理化学、有机化学,刷往年竞赛题,系统学习。第二年他进了前四,参加国际化学奥林匹克并获得银牌。

他用了一句骑行界的名言来总结这段经历:

它永远不会变容易,你只是变快了。

Stripe 的第四号员工

Brockman 从哈佛转学到 MIT,后来从 MIT 辍学加入 Stripe。

在哈佛,他原本打算学数学、化学和哲学三个专业,但被编程吸引了。他发现哈佛的计算机社区不够强——大二时就他在组织讨论了,他觉得自己还不够格。于是他开始频繁跑 MIT,最终转学。

他的哈佛室友为此做了一个“Greg 转学概率天气预报”,一个月内从 99% 到 1% 到 50% 波动。哈佛的反应很有趣——他去说要退学,学校说“这听起来像休学”。哈佛不让你退学。

在 MIT 期间他收到了一封邮件,来自一个在做支付的创业公司。他飞去见了 Patrick Collison(Stripe 联合创始人),两人一见如故——一样的 Kinesis 分体键盘,都用 Dvorak 键盘布局,聊防火墙、聊内核。

关键的认知冲击是:Patrick 和他同龄(21 岁),已经在做创业了。"我们两个人中有一个是错的。我很想知道是谁。"

他在四天内决定加入。当时 Stripe 只有四个人。

注: Stripe 现在是全球最大的在线支付基础设施公司之一。Brockman 加入时只有 Patrick Collison、John Collison、Darra Buckley 和他。

他说 Stripe 和 OpenAI 有一个根本区别:Stripe 是“建一台支付机器”,有那台机器在就有惯性和安全感。OpenAI 像电影公司——“你有一部成功的作品,但你已经需要想下一部了”。

四年半后他决定离开。原因是使命不同——Stripe 的使命很好,但不是那种“我必须以任何形式追求”的使命。他想做 AI。离开那天他跟 Patrick 说的时候哭了。Patrick 和 John 给他办了一个果汁告别派对。

OpenAI 的客厅与三步计划

2015 年 7 月的一次晚餐是真正的起点。参加者包括 Sam Altman、Ilya Sutskever、马斯克 等人。核心问题是:现在开始一个能真正实现 AGI 的实验室,是不是太晚了?当时感觉 DeepMind 已经拥有了最好的人才和 Google 的算力。

2015 年 11 月,Brockman 组织了一次 Napa 团建。一群还没真正组成团队的人被拉到一起,结果当天就碰撞出了化学反应。他们在翻转图表上写下了三步计划:

解决 RL(强化学习) ——从奖惩中学习

解决 UL(无监督学习) ——通过观察世界自主学习

逐步学习更复杂的任务

Brockman 说他有这张翻转图表的照片。“这实际上就是 OpenAI 过去十年一直在做的事。”

2016 年初,OpenAI 正式在 Brockman 的客厅开工。一张黑色椭圆木桌、几张沙发、一台大屏电视。第一天没有白板——两个研究员想写东西的时候才发现这个问题,Brockman 立刻出去买了一块。”我觉得自己从第一天起就在创造价值。”

客厅里的创始团队:Sam Altman、Ilya Sutskever、Wojciech Zaremba、Vicki Cheung、Pam Vagata、John Schulman、Andrej Karpathy。

他描述了几个人的特点:

Sam 是梦想家——你觉得问题不可能解决的时候,他会找到一条路。也许不是最好的方案,但一旦你知道有解,就可以去找更好的

Ilya 是远见者,第一天就在讲他关于无监督学习的想法

Wojciech 极擅长想法生成,而且完全不执着于自己的想法——“因为如果你太在意自己的想法,就很难保持那种创造力”

竞争格局:“我们被 Anthropic 在编程方面教了一课”

Rubin 问 OpenAI 和其他 AI 公司有什么不同。

Brockman 说他主要关注自己,但竞争对手有两个用处:当"配速员“看自己表现如何,以及发现”原来这个功能可以做到"。

OpenAI 的核心优势是在基础研究上的长期投资——语言模型范式、强化学习范式。“还有即将到来的新范式,我们正在拥抱和捕捉。”

Google 去年在建更好的模型方面做得不错,而且有天然优势——算力、人才、用户、分发。“Google 对我来说始终是最前端和中心的威胁。”

Anthropic 在编程方面做得很好。他承认了这一点:OpenAI 之前太关注 benchmark——学术编程竞赛的数字很漂亮,但没有足够关注模型在现实世界中怎么被使用。“在乱七八糟的真实代码库上训练、让模型真正适配人们的使用方式——这个教训我们来晚了。但我们组建了团队,专攻这个方向,我认为已经追上了。”

他还提到一个转变:"我们进入了后 benchmark 时代。 真正重要的 benchmark 是——有人在用吗?收入在增长吗?"

韧性而非中央控制

Rubin 问 AI 的格局会怎么演变。

Brockman 提出了一个他认为比“对齐”更重要的概念:韧性(resilience)。

他反对一种常见的叙事:建一个最强大的中央 AI,对齐它与人类价值观,然后万事大吉。"首先,根本就没有'人类价值观'这回事——你说的其实是某个人的价值观。"

他认为,生命本身就是通过多样性存活的——非单一文化、容许异端。AI 也应该这样。

他用了蒸汽机的类比:我们围绕汽车建立了整套社会基础设施——修路、安全带、碰撞测试。不是一种做法,而是系统性的韧性。AI 也需要这样的社会配套。

他对 OpenAI 的定位也呼应了这个理念:AI 应该是所有人的技术,人们应该有权选择自己的 AI 怎么运作,包括有权让 AI 质疑现有的科学共识。

"这与行业内其他人的哲学非常不同。我们的哲学是自我赋权——这项技术属于每个人。"

编码、数学与宇宙的织物

Rubin 问了一个非常“Rick Rubin”式的问题:编码和其他活动有什么异同?

Brockman 说编码更像数学而非语言。但这里有一个误解——数学不是 1+1,不是机械运算。数学是关于宇宙底层结构的学问,是关于不同对象、不同想法之间深层关系的探索。编码就是把这种数学之美变成了有用的形式。

Rubin 接着追问了一个哲学问题:数学是覆盖在自然之上的,还是自然是覆盖在数学之上的?

Brockman 说他一直在想这个问题。数学感觉像是独立于一切事物而存在的。如果我们遇到一个来自数百光年外的外星人,我们可能在数学上有共同语言,而在其他任何方面都没有。

但同时,如果没有人去欣赏它,数学就像一棵在没有人的森林里倒下的树——声音在那里吗?

也许,正是我们作为思考者的存在,才让数学获得了意义而非仅仅是一种无人知晓的抽象。

Rick Rubin 的访谈风格在这些时刻展现了独特价值——他不是技术记者,不会追问 API 细节或竞品比较,而是用音乐人和哲学家的好奇心把对话带向了技术人通常不会去的地方。

Brockman 在这次三小时的对话中反复回到三个主题。第一, AGI 使命大于任何公司实体,值得冒一切风险——包括八年的积累和全部股权。第二, 算力是 AI 时代的终极瓶颈,供给远远跟不上需求增长,而算力最终会成为基本人权。第三, 人与人之间的冲突如果不及时处理,带来的破坏远超技术挑战——“have the hard conversation”不只是一条公司价值观,是他从一场几乎失去一切的经历中提炼出来的血泪教训。

值得持续关注的信号: OpenAI 的 Agent-first 目标能否在 2026 年 3 月如期实现;AI 推翻物理假设的那篇论文是否得到同行验证;以及当算力成为个人生产力的核心要素时,供应链瓶颈何时能缓解。

完整播客请收听:https://www.tetragrammaton.com/content/greg-brockman-part1