Back to Articles
Jan 27, 20263 weeks ago

Sam Altman's Hour with Developers: GPT-5's Frank Admission, Hiring Slowdown, and What He Worries Most About in 2026

宝玉@dotey

AI Summary

This article provides a rare, unfiltered look into the strategic thinking and candid concerns of OpenAI CEO Sam Altman, captured during a 2026 developer town hall. It moves beyond hype to reveal concrete roadmaps, admitted failures, and the profound tensions shaping AI's near future—from the "two-hour" rule on agent permissions to warnings about biosecurity. Readers gain a masterclass in navigating the AI era's opportunities and existential dilemmas directly from a central architect. Altman presents a framework of radical abundance coupled with concentrated risk. He argues that AI is driving a massive deflationary wave, making creation (especially software) orders of magnitude cheaper and more accessible, which will empower individuals and reshape jobs rather than simply eliminate them. However, this power is dual-use: the same capabilities that democratize creation also centralize risk, demanding a societal shift from "blocking" dangerous uses to building "resilience" against them. The future hinges on navigating this tension. Strategic Trade-offs and Course Corrections: Altman openly admits OpenAI "messed up" with GPT-5's writing quality, attributing it to a deliberate but imbalanced focus on boosting reasoning and programming capabilities at the expense of other dimensions. He announces a significant hiring slowdown, not due to lack of ambition, but to avoid over-hiring before understanding how AI reshapes productivity. This reflects a pragmatic, adaptive leadership style. The Economic and Creative Reconfiguration: Altman envisions a world of personalized, on-demand "micro-software" and an explosion of solo creators, enabled by plummeting costs (a 100x cost reduction for GPT-5.2-level intelligence predicted by end of 2027). He argues that while making things becomes trivial, human attention remains the ultimate scarce resource, making go-to-market strategy and "high agency" soft skills more critical than ever. In creative fields, the human story and curation will remain paramount, as society cares deeply about human connection over purely AI-generated output. The Agent Adoption Dilemma and Safety Paradox: A core tension is the conflict between immense utility and latent risk. Altman confesses his own "two-hour" surrender on giving Codex unsupervised computer access, illustrating how convenience will drive rapid, potentially careless adoption. He warns of "sleepwalking" into a state where powerful, poorly understood agents operate with catastrophic but low-frequency failure modes. This is especially acute in biosecurity, which he flags as the most likely visible AI catastrophe in 2026, necessitating a shift from restrictive "blocking" to robust societal "resilience." The Future of Work and Collaboration: The model is a collaborator, not just a tool. Altman describes an "infinite postdoc" model for research and envisions AI as a participant in human teams, enhancing group brainstorming and problem-solving. The goal for companies is not to become pure-AI entities but to effectively integrate AI as a "colleague." This requires fundamentally rethinking education and skills, moving away from rote learning towards fostering adaptability, idea generation, and critical thinking. The Personal Data Frontier: Altman's personal stance on privacy has radically evolved. He now states he is ready for an AI to have access to his "entire digital life" for the utility it provides, trusting it to manage complex context and exposure rules. This highlights a coming major challenge and product direction: building AI that can deeply understand and responsibly manage the nuanced layers of a user's personal and professional identity.

“我原本坚决认为绝对不会给 Codex 无监督访问我的电脑。结果大概撑了两个小时就放弃了。”

这是 Sam Altman 在 OpenAI 开发者 Town Hall 上的自嘲。2026 年 1 月 27 日,这场面向开发者的直播持续了约一小时,Altman 回答了从模型能力到公司战略到个人隐私观的广泛问题。承认了 GPT-5 在写作上“搞砸了”,宣布 OpenAI 将大幅放缓招聘,警告如果 2026 年 AI 出大问题,"生物安全可能是个合理的押注"。

1. 软件工程的杰文斯悖论

Altman 以一个 Twitter 问题开场:如果 AI 让代码创作变得极其便宜,软件工程师的需求会减少,还是会因为定制软件的爆发而保持高位?

"我认为工程师的含义会发生巨大变化。“Altman 说,”会有更多人创造更多价值、获取更多价值,让计算机做他们想做的事,为其他人做有用的事。但这份工作的形态,你花在敲代码、调试上的时间,会非常不同。"

他指出这种变化在工程领域已经发生过很多次,每次都让更多人能够加入并产出价值。"我的猜测是,未来很多人会使用专门为一个人或极少数人编写的软件,而且我们会不断定制自己的软件。"

如果把这也算作软件工程,那么从事这项工作的人会大大增加,世界 GDP 中由此创造和消费的比例也会上升。

2. AI 时代的 GTM 挑战

一位开发者提到,现在用 Codex、Lovable 或 Cursor 能很快做出产品,但真正的瓶颈变成了 GTM(go-to-market,市场推广)。

"在我做 Y Combinator 的时候,创始人们反复说的一件事就是:我以为最难的是做产品,结果最难的是让任何人在乎它、使用它。“Altman 回应道,”现在做东西变得容易太多,这种落差感更强烈了。"

他没有给出简单答案。“所有老规则依然适用。你得找到差异化价值,得搞定 GTM。AI 能让创造软件变得容易,但不意味着其他事情也变容易了。”

不过他补充,AI 也开始被用于自动化销售和营销。"但我觉得这会一直很难,因为即使在极度富足的世界里,人类注意力依然是稀缺品。你永远在和其他人竞争。"

3. 多 Agent 编排与界面愿景

一位 solo 开发者正在用 Codex SDK 做多 Agent 编排工具,问 OpenAI 的 Agent Builder 会不会把这块市场吃掉。

"我们不知道正确的界面是什么样的。“Altman 坦言,”我们见过有人做出很棒的多 Agent 设置,也见过有人就用一个很好的单线程交互。我们不会自己搞清楚所有这些,而且不是每个人都想要同样的东西。"

他描述了两种极端场景:有人会像老电影里那样面对 30 块屏幕,同时操控各种东西;也有人只想在语音模式下每小时跟电脑说一句话,让它自己搞定,不想时刻盯着一堆 Agent。

"现在有一个巨大的落差,模型能做到的事和大多数人能从中榨取的能力之间的差距,而且这个差距还在扩大。谁能做出工具来弥合这个差距,谁就有机会。我们也会做自己的版本,但这个领域空间很大。"

4. AI 能缩小经济差距吗?

一位正在 OpenAI 平台上做产品的创业者问:AI 能否帮助解决长期存在的经济不平等,比如性别薪酬差距?

"好消息是,AI 会带来大规模通缩。“Altman 说,”我对此反复思考过,因为你可以想象一些奇怪的情况,比如全世界的钱都流向自我复制的数据中心。但从目前来看,无论是电脑前的工作还是即将到来的机器人技术,通缩压力会非常强。"

他说这“大部分是好消息”,因为东西会变得极其便宜,除了那些受社会或政策阻碍的领域,比如在旧金山建房子。

"我仍然很难理解这个经济变化的规模。到今年年底,100 到 1000 美元的推理成本,加上一个好想法,你就能创造出过去需要团队花一年时间做的软件。"

这应该是一种赋能,让那些没有被公平对待的人也能获得机会。但他也警告:"你可以想象 AI 真正集中权力和财富的世界。阻止这种情况发生,应该是政策的主要目标之一。"

5. 模型应该专精还是通用?

一位 CTO 提了个尖锐问题:GPT 4.5 是他见过的第一个“写作真正好”的模型,但 GPT-5 的写作被很多人吐槽“难读”“不自然”。模型是不是变得更“尖刺”了,某些能力飙升,某些能力下降?

"我觉得我们就是搞砸了。“Altman 直接承认,”我们会让 GPT 5.x 的未来版本在写作上比 4.5 更好。我们确实决定,有充分理由,把 5.2 的大部分精力放在智能、推理、编程上。我们带宽有限,有时候专注一件事就会忽略另一件。"

但他强调未来还是通用模型为主。“即使你想做一个超强的编程模型,写作好一点也是好的。你想让它生成完整应用时,里面的文案也得好;你想让它交互时有深思熟虑、表达清晰的个性。”

"我的希望是,我们会推动未来的模型在所有这些维度上都很强。智能是一种可转移的东西,我们可以在单一模型中做到所有这些。"

GPT-5 于 2025 年 8 月发布后,确实引发了大量用户抱怨。Reddit 上一个批评帖子获得了数千条评论,用户称其“写作冰冷”“回复过短”“个性丧失”。OpenAI 甚至被迫恢复了 GPT-4o 的可选项。Altman 当时承认自动路由系统“坏了”。这次 Town Hall 是他首次公开将写作问题归因于有意的资源分配取舍。

6. 成本下降路线图

一家做 GTM 自动化的公司 CTO 问:Altman 说过“智能便宜到不用计量”,但他们运行千万级 Agent 的瓶颈就是成本。OpenAI 怎么看?

"到 2027 年底,我们应该能以至少 100 倍更低的成本提供 GPT 5.2x 级别的智能。"Altman 给出了具体预测。

但他提到了一个新维度:"我们历史上没太想过的是速度。现在模型输出变得复杂,更多人在推我们,不是更便宜,而是同样的输出能不能快 100 倍,哪怕价格更高。"

“这两个方向是非常不同的问题。但如果市场想要成本下降,我们可以在这条曲线上走很远。”

7. 个性化软件与微应用

Altman 念了一个 Twitter 问题:当前界面不是为 Agent 设计的,但我们看到了“为我而建的应用”的兴起。定制化界面的创新会如何加速微应用的趋势?

"这是我最近自己用 Codex 时注意到的。我不再把软件看作静态的东西了。 有个小问题,我就期望电脑马上写点代码解决。"

他预测整个计算机和操作系统的使用方式都会改变。“不是说每次编辑文档都会现场生成一个新的 Word 处理器,我们太习惯界面了,那个按钮得在老地方。但很多其他事情,我们会期望软件是专门为我们写的。”

他透露 OpenAI 内部已经高度采用 Codex,"每个人都有自己的小工具,使用方式完全不同“。这个方向看起来”板上钉钉",是个很好的创业方向。

8. 创业公司的护城河

Twitter 问题:当模型更新可以快速取代创业公司的功能时,创业者该怎么想耐久性?有没有哪层你们保证不吃?

“很容易假设商业的物理定律完全变了,但其实还没有。”Altman 说,“变的是你能更快地做东西、创造新软件。但其他规则,获取用户、解决 GTM、提供粘性、有某种护城河,都没变。”

“好消息是,这对我们也一样。很多创业公司做了我们本应更早做的事,但太晚了,人们已经建立了持久优势。”

他给出一个框架:"如果 GPT-6 是一次惊人的更新,你的公司会高兴还是难过? 我鼓励人们去做那种『超级希望模型变强』的东西。有很多这样的机会。那些打补丁式的方向,如果你在模型升级前建立了足够优势也能成功,但这是一条更艰难、更焦虑的路。"

9. 自主 Agent 时间线

“能长时间自主运行工作流、不需要人类持续干预的 Agent,现实的时间线是什么?”

一位 OpenAI 员工回答:"这取决于任务类型。现在 OpenAI 内部就有人用特殊方式 prompt Codex,或者用 SDK 做自定义工具不断让它继续,基本上能一直运行。所以这不是'什么时候'的问题,而是'扩展到多广'的问题。"

他建议:“如果你有一个非常具体、你理解得很透彻的任务,今天就试试。如果你想的是『让模型帮我创业』这种开放问题,验证回路就难得多。想想怎么把它拆解成 Agent 能自我验证的子问题,然后逐步扩大它能做的事。”

10. 帮人想出好点子的工具

一位帮 AI 公司做 GTM 的从业者说,很多时候产品本身就不值得用户关注。能不能做工具来提升人们想法的质量?

“人造的 slop(注水内容)也很多,不只是 AI 生成的。想出好的新点子一直很难。”Altman 说,"我越来越相信我们是在工具的边界上思考。我们应该做工具来帮人想出好点子。"

他说随着创造成本暴跌,反馈循环会变得极其紧密,好点子会更快被发现。“而且 AI 能发现新科学、写复杂代码库,我相信一定有全新的可能性空间。”

他提到自己生命中遇到过三四个人,"每次跟他们聊完都带着一堆点子离开。他们特别擅长提问,或者给你种子让你发展。Paul Graham 在这方面简直惊人。"

“如果我们能做出一个 Paul Graham 机器人,让你能有同样的互动来生成新点子,即使大多数是坏的,即使你否掉 95%,我觉得这会对世界上好东西的数量有很大贡献。”

他透露 OpenAI 内部用的 GPT 5.2 特殊版本,"第一次让科学家们说这些模型的科学进展不再是微不足道的了“。”我无法相信一个能产生新科学洞察的模型,不能用不同的方式来产生新产品洞察。"

11. 让模型适应新技术

知名开发者 YouTuber Theo 问了个技术问题:他担心随着模型和工具变强,我们会被困在现有技术栈里,就像美国电网那样,想改也改不了。现在让模型用两年前的新技术都很费劲,以后会不会更难?

“我真的认为我们会很擅长让模型使用新东西。”Altman 说,"如果我们正确使用这些模型,它们是通用推理引擎。现在的架构确实内置了大量世界知识,但我认为方向是对的。"

"一个我们会非常自豪的里程碑是:模型被展示一个全新环境、新工具、新技术,探索一次就能超级可靠地使用它。 这感觉不会太远了,未来几年吧。"

12. AI 做科研:从无限博士后到自动湿实验室

一位年长的科学家问:科研项目会呈指数级产生新问题,但科学家的时间是线性减少的。AI 能接管整个科研流程吗?

“完全闭环的自主研究,在大多数领域还相当遥远。”Altman 说,“拿数学来说,不需要湿实验室或物理输入,也许能靠纯思考取得很大进展。但现在用模型做数学进展最快的人,仍然深度参与看中间结果,说『这个感觉不对,我直觉觉得另一条路更好』。”

他提到见过几位数学家,现在整天都在跟最新模型协作,进展很快,但他们做的事跟模型做的非常不同。

"老实说,这让我想起国际象棋史上那个阶段:深蓝打败卡斯帕罗夫,然后有一段时间人类加 AI、人类从 AI 的 10 步棋中选最好的那步,比纯 AI 更强,但很快 AI 又超过了,人类反而在帮倒忙。"

“我觉得很多研究领域会发生类似的事。事情会变得太复杂,AI 能理解多步骤的东西比所有人都强。但现在这代模型在创造力、直觉、判断力上,我们还差得很远。我想不出任何原则性障碍说我们到不了那儿,所以我假设我们会到。但现在不是让 GPT-6 去解决数学就行的状态。”

关于有效的科研工作流,他提到:"现在能跑起来的方式是,你解决一个问题,它打开 20 个新问题,然后用 AI 做广度优先搜索,不在任何一个上深入。有人把这形容为'无限研究生'。我最近把他们升级成了'无限博士后'。"

他还透露 OpenAI 内部“反复讨论是否应该为各学科建自动化湿实验室”。但看到科学界对 GPT 5.2 的拥抱程度和贡献数据的意愿,“也许让世界来做实验、提供设备更好,更分布式、更多聪明人、更多不同设备”。

13. 生物安全与韧性策略

一位斯坦福学生在做生物安全创业,她问:安全在 OpenAI 2026 路线图中占什么位置?

“2026 年 AI 可能出问题的方式很多,我们相当紧张的一个是生物。”Altman 说,“模型在生物方面相当强。现在大部分策略是限制谁能访问、用分类器阻止人们制造新型病原体。”

"我不认为这能持续太久。"

他说世界需要从“阻断”转向“韧性”。"我联合创始人 Voychuk 有个我很喜欢的类比:火为社会做了很多好事,然后开始烧毁城市。 我们试图各种限制火,我刚知道 curfew(宵禁)这个词就是来自不允许生火的年代,然后我们学会了韧性,有了消防规范、阻燃材料等等。现在社会在这方面做得很好了。"

Altman 的词源说法是准确的。Curfew 来自古法语 couvre-feu,意为“盖火”,中世纪欧洲要求在晚钟响起后熄灭或覆盖炉火,以防木结构房屋引发大火。

“我认为 AI 需要同样思考。AI 会成为生物恐怖主义的真正问题,会成为网络安全的真正问题,但 AI 也是这些问题的解决方案。我们需要全社会的努力来建设这种韧性基础设施,不是靠我们信任的实验室永远阻断它们该阻断的东西。”

"如果今年 AI 出了可见的大问题,我认为生物是一个合理的押注。然后到明年和后年,你可以想象很多其他事情也会出大问题。"

14. 教育与人机协作

一位参加过 ChatGPT 教育实验室的学生问:如果 AI 能回答一切,为什么还要花时间、承受摩擦去问真人?人类协作会怎样?

“我比你们大多数人老多了,但我也是在 Google 出来的时候上中学的。”Altman 说,"老师试图让孩子们保证不用它,因为觉得如果什么都能查到,为什么还要上历史课、背任何东西。我当时觉得这完全疯了。我想的是:我会变得更聪明,学得更多,做得更多,这是我成年后会用的工具。"

“我对 AI 工具的感觉一样。我理解在当前教学方式下 AI 工具是个问题,但这说明我们需要改变教学方式,而不是假装可以让 ChatGPT 帮你写东西的世界不存在。”

他说写作的练习对学习思考很重要,“但我们评估思考能力的方式应该改变了”。

关于协作,他说目前没有证据表明 AI 在破坏人际连接,"但我怀疑在充满 AI 的世界里,人类连接会变得更有价值而不是更少"。

他透露 OpenAI 在思考自己的硬件和设备时,“甚至可能首先想的是多人加 AI 的协作体验会是什么样”。

“虽然还没人完全搞定,但我们会惊讶于 AI 能以其他技术从未实现的方式支持协作。你可以有五个人围坐在桌边,一个小机器人也在那儿,作为一个团队你们的生产力会高得多。每次头脑风暴、每次解决问题,都会有 AI 参与,帮助团队做得更好。”

15. Agent 在生产环境的失败模式

一位开发者问:随着 Agent 进入生产系统,最被低估的失败模式是什么?

“到处都是问题。”Altman 说,“让我个人惊讶的一件事是,当我第一次用 Codex 时,我说:我不知道会怎样,但我绝对不会给这东西无监督访问我的电脑。我对此超级自信。”

"结果我大概撑了两个小时。"

“然后我就想:这东西看起来很合理,它做的事都很合理,我讨厌每次都批准这些命令,我就开一会儿看看会怎样。然后我再也没关掉全权限。我觉得其他人也有类似经历。”

他说这正是他担心的:"这些工具的能力和便利性太高,失败率也许是灾难性的,但频率太低,我们会滑入『yolo 吧希望没事(管他呢先用着再说)』的状态。"

“然后模型变得更强、更难理解它在做什么,如果模型有对齐问题,如果几周或几个月的使用后出现复杂问题,你在做的东西里埋了安全漏洞……”

"我担心的是,采用这些工具的压力,不只是压力,是快感和能力,会太强,人们会被拉着走,不够认真地想他们怎么运行这些东西、他们设的沙箱到底安不安全。能力会急剧上升,我们会习惯模型在某个水平的表现然后决定信任它们,而没有建立很好的安全基础设施,我们会梦游进某种状态。"

“这会是一个很好的创业方向。”

16. 幼儿与技术

一位 UC Berkeley 认知科学学生问:作为父亲,Altman 怎么看 AI 在幼儿园和小学教育中的角色?

"总体来说,我支持让电脑远离幼儿园。“Altman 说,”幼儿园的孩子应该在外面跑、玩实物、学习跟人互动。不只是 AI,我不会在大多数幼儿园放电脑。"

“我们仍然不完全理解技术对幼儿的影响。社交媒体对青少年的影响已经写了很多,看起来相当糟糕。但我有种感觉,很多技术对幼儿的影响可能更糟得多,却讨论得相对很少。在我们更好理解之前,幼儿园的孩子大概不需要用太多 AI。”

17. 3D 推理与生物医药

一位生物医药从业者说,生成式 AI 在临床试验文档撰写上帮助很大,但在药物设计、化合物的 3D 推理上遇到了瓶颈。

"我们会解决的。“Altman 说,”我不知道是不是 2026 年的事,但这是一个超常见的需求。我觉得我们知道怎么做,只是有很多其他紧急的方向要推。"

18. 给辍学创业者的建议

一位刚从伦敦大学辍学加入 Y Combinator W26 批次的学生问:父母还在催他回去读书,他该怎么办?顺便问一句,Altman 还做天使投资吗?

“我也从大学辍学了,我父母花了十年才停止问我什么时候回去。”Altman 说,“父母就是这样,他们爱你,试图给你他们认为最好的建议。你就得一直跟他们解释:你随时可以回去,但世界现在不一样了,以后会更不一样。”

"每个人都得做自己的决定。我个人觉得,如果你是 AI 领域的建设者,现在大概不是待在大学里的最佳时机。如果你是那种有野心、有行动力、有自驱力的人,这是一个不寻常的时期。你以后总可以回去的。"

至于天使投资:“我尊重这种拼劲,但不做了。OpenAI 太忙了,而且如果投的公司成了 OpenAI 大客户,事情会变得奇怪。”

19. 身份认证与个性化

一位做身份认证的公司创始人提了个功能请求:Sign in with ChatGPT。

“我们会做的,很多人一直在问。”Altman 确认,“你们需要什么?用户带自己的 token 预算?还是带 ChatGPT 的记忆?”

对方回答:肯定要带账户和可用模型,但也想知道用户的 MCP 服务器、ChatGPT 对他的记忆、他在做什么项目。“ChatGPT 从工作和个人角度都太了解我了。”

“这很吓人。”Altman 说,“因为 ChatGPT 确实太了解你了。如果你告诉一个亲近的人很多秘密,你可以相信他们知道精确的社交细微差别,什么时候跟谁分享什么、什么时候某件事覆盖另一件事。”

“我们的模型还没完全到那儿,虽然越来越好了。如果我把 ChatGPT 账户连到一堆网站然后说『用你的判断决定什么时候分享你从我所有聊天记录里知道的关于我的信息』,我会觉得不舒服。”

"但等我们做到的时候,这显然是个很酷的功能。现在至少可以先做 token 预算,如果我付了 Pro 版,就能在其他服务上用。我们会先做这个,然后想办法把信息共享做对。我们真的不想搞砸这个。"

20. 招聘与面试的未来

一位开发者注意到 LinkedIn 上 OpenAI 还在招软件工程师,问面试流程有什么变化。

"我们会继续招软件工程师。但我们是第一次,我知道每家公司和每家创业公司都在想这个,我们计划大幅放缓招聘速度,因为我们认为能用更少的人做更多的事。"

“我觉得我们不应该做的,也希望其他公司不要做的,是猛招人,然后突然发现 AI 能做很多事、需要更少的人,然后不得不进行非常不舒服的对话。正确的做法是招得慢一点,但继续招。”

关于面试,他说“还没有像应该的那样改变”,但今天刚开过会讨论这个。"我们基本上想让你坐下来,给你一个去年这个时候一个人两周都做不到的任务,然后看你 10 分钟或 20 分钟做完。"

“软件工程面试一直很糟糕,可能不太相关,现在更不相关了。”

他还谈到了一个更大的问题:未来是“公司有很多 AI 同事但人也不少”,还是“赢家公司完全是 AI、一架 GPU 没有人”?

“我真的希望是前者。但如果公司不积极采用 AI,不弄清楚怎么招能有效使用工具的人,最终会被纯 AI 公司打败,那种不需要应对阻止大公司用 AI 的愚蠢政策的公司。这对社会会是非常不稳定的事。”

"我们一直在想怎么说这个,因为从我们嘴里说出来听起来像是为自己说话。但我认为公司快速、大规模采用 AI 非常重要。"

21. 创意身份与 AI 生成艺术

一位创作者和摄影师问:AI 改变了讲故事的方式,也因此改变了我们看待自己的方式。人类创意身份和 AI 辅助创作的关系会怎样发展?

“我们能研究和学习最多的领域是图像生成,它存在最久,创意社区对它又爱又恨。”Altman 说。

"有很多有趣的观察,其中一个是:图像的消费者报告说,如果被告知是人做的,他们的欣赏度、满意度会高得多。"

“我认为这会是未来几十年的一个深层趋势:我们非常在乎其他人,我们不太在乎机器。在所有 AI 的蔑称里,clanker 是我最喜欢的一个,它太能唤起人们的情感反应了。”

Clanker 是近年来出现的对 AI 的贬义称呼,意指 AI 只是“叮当作响的金属”。

他提到去年网上有个实验:找那些说“我讨厌 AI 生成的图像,而且我能认出来,因为它们很烂”的人,给他们看 10 张图,让他们排名最喜欢的。一半是人做的,一半是 AI 做的。“相当一致地,他们把 AI 的排在前面。然后一被告知,他们就说:其实我不喜欢这个,这不是我想要的。”

“当我读完一本我喜欢的书,第一件想做的事就是查作者、了解他们的人生、这本书是怎么来的,因为我对这个不认识的人产生了连接感。如果我读了一本很棒的小说,最后发现是 AI 写的,我会有点伤心、有点失落。”

“然而,如果艺术哪怕只有一点点人类引导,多少算够可能需要时间来搞清楚,人们似乎就没有那么强烈的情感反应。这类事已经持续很久了,数字艺术家用 Photoshop,人们仍然喜欢他们的作品。”

"我的预期是,根据我们现在从创作者和消费者那里看到的行为,那个人、他们的人生故事、他们的编辑或策展,会非常重要。我们不会想要完全 AI 生成的艺术,至少从图像领域能学到的是这样。"

22. 个性化与数字生活访问

一位旧金山州立大学毕业生问:个性化和记忆功能会怎么演进?能不能有更细粒度的控制,比如分组记忆,这是我的工作身份,这是我的个人身份?

“我们会大力推进记忆和个性化,显然人们想要它,它能让工具好用得多。”Altman 说。

"我自己在这方面也有演变。现在我准备好让 ChatGPT 看我整个电脑、整个互联网,知道一切。价值太高了,我不再像以前那样感到不舒服。"

“我真的希望所有 AI 公司都认真对待安全和隐私,也希望整个社会如此。因为效用太大了,AI 会知道我整个人生,我不会去阻碍这件事。我还没准备好戴那种一直录像的眼镜,那出于各种原因还是不舒服。但我准备好说:你可以访问我的电脑,搞清楚发生了什么,对我有用,理解一切,拥有我数字生活的完美表征。”

"我很懒,我觉得大多数用户也很懒。我不想坐在那儿分组:这是工作记忆,这是个人记忆。我想要的,也是我相信可能的,是让 AI 深刻理解我生活中复杂的规则、交互、层级,知道什么时候用什么、什么时候暴露什么。我们最好搞清楚这个,因为我觉得这是大多数用户想要的。"

23. AI 时代最重要的技能

最后一个问题来自一位越南国际学校的学生:AI 时代最重要的技能是什么?

"都是软技能。“Altman 说,”没有一个像『学编程』那样明显,那在近期一直是很明显正确的事,现在不是了。"

"变得高能动性(high agency)、善于产生想法、非常有韧性、非常能适应快速变化的世界,我认为这些会比任何具体技能都重要。而且我认为这些都是可以学的。"

“做创业投资让我惊讶的一件事是:你可以把人放进一个三个月的训练营式项目,让他们在所有这些维度上变得极其厉害。这对我是很大的认知更新。这些技能可能最重要,而且相当可学。”

尾声

Town Hall 结束前,Altman 向在场开发者描绘了 OpenAI 的目标:100 倍更强的模型、100 倍的上下文长度、100 倍的速度、100 倍更低的成本、完美的工具调用、极致的长任务连贯性。

“告诉我们你们想要我们做什么。我们是为你们做的,我们想做对。”

Altman 承认了 GPT-5 的失误,承认了自己对 Agent 权限“两小时破戒”的经历,宣布了招聘放缓,警告了生物安全风险,同时也展示了对个人数据开放到“整个数字生活”的新态度。对技术能力极度乐观,对风险极度警觉;准备让 AI 知道自己的一切,同时认为幼儿园不应该有电脑。这种张力,也许正是 AI 时代所有人都在经历的状态。