Back to Articles
Feb 14, 202614 hours ago

Searle Was Right, But Got the Wrong Person in the Room — When Humans Become the One Who Doesn't Understand Chinese in the Chinese Room

T
Tz@Tz_2022

AI Summary

This thought-provoking article uses a personal anecdote—spending a day as a mere copy-paste conduit between a terminal and an AI like Claude to build a workflow—to launch a profound philosophical inquiry. The author realizes they were the least intelligent component in the system, a "biological USB cable," which leads to a stunning reversal of philosopher John Searle's famous "Chinese Room" thought experiment. The argument posits that it is not the machine, but often the human, who now sits in that room, manipulating symbols without understanding their meaning, while the AI systems on either end form a coherent semantic loop.

我花了一整天搭一条 OpenClaw 自动化链路。

不是那种拧螺丝的装。是那种:把终端的报错复制给 Claude,再把 Claude 的回复粘贴回终端。反复。一整天。

全程我对屏幕上的字符一窍不通。我不知道 pip install 出了什么错,不知道 chmod 755 在干什么,不知道 YAML 缩进为什么会杀死一个进程。我唯一会的动作是 Ctrl+C 和 Ctrl+V。

然后 OpenClaw 工作流跑起来了。

那一刻我感到一阵寒意——不是因为 AI 太强,而是因为我突然意识到:在这整条逻辑链里,我是最蠢的那个环节。

Claude 知道问题在哪。终端知道怎么执行。而我,一个据说拥有意识、自由意志和灵魂的碳基生命体,干的事情跟一根 USB 数据线没有本质区别。

这不是一个关于 AI 有多厉害的故事。这是一个关于人类可能从来就没有自己以为的那么特别的故事。

1. 赛尔的预言

1980 年,哲学家约翰·赛尔提出了一个思想实验,叫“中文屋”。

场景很简单:你被关在一个房间里,完全不懂中文。但你手里有一本巨厚的规则手册——对于每个递进来的中文纸条,手册都告诉你该递出哪张中文纸条作为回答。外面的中国人以为房间里坐着一个精通中文的人。但你心里清楚:你他妈一个字都不认识。

赛尔用这个实验要证明的是:计算机永远不可能真正“理解”语言。它只是在做符号操作——查表、匹配、输出。看起来像理解,但那只是语法层面的把戏,不是语义层面的领悟。

四十四年过去了。

赛尔说对了。只是搞错了谁在屋子里。

2. 反转

插图:人类作为中转节点,并不理解两端语义。

让我把我那天搭 OpenClaw 的经历,用赛尔的框架重新描述一遍:

有一个封闭的房间(我的大脑)。里面的人(我)完全不懂那些符号的意义。但有两个门——左边进来终端的报错信息,右边进来 Claude 的指令。我的全部工作,就是把左边的纸条递给右边,再把右边的纸条递给左边。

外面的人(如果有人在看的话)会以为:这个人把 OpenClaw 跑通了,他肯定懂技术。

但真相是:我只是在搬运符号。我对这些符号的语义理解为零。

你品。

这不正是赛尔的中文屋吗?

只是角色完全反过来了——

一模一样。

赛尔花了四十年论证机器不可能真正理解。结果机器没有进屋——人类自己钻了进去。

3. 更深一层的恐怖

但故事不止于此。

赛尔的原版中文屋里,虽然人类不理解中文,但他至少是唯一的智能体。是他在翻书、在查表、在做决策。他是这个系统的 CPU。

而在我的经历里,我连 CPU 都不是。

Claude 是逻辑引擎——它分析报错,找到原因,生成解决方案。终端是执行层——它运行命令,返回结果。这两者之间存在一个完整的语义闭环:问题被理解,方案被生成,指令被执行,结果被验证。

这个闭环里唯一不处理任何语义的节点,是我。

我不是 CPU。我是一根数据线。不,我连数据线都不如——数据线至少是即时的、无损的、不会手抖复制错一行的。我是这个系统里最慢、最不可靠、最容易出错的组件。

如果把我替换成一个 API 调用(事实上很多 AI Agent 已经做到了),整个系统会运行得更快、更准、更便宜。

我不是被 AI 取代了。我是在 AI 的系统里暂时占据了一个本不属于我的位置,而且占据得很糟糕。

4. 意识——最后的遮羞布

插图:系统闭环清晰高效,情绪层像噪声一样叠在其上。

每当这种对话进行到这里,总有人会跳出来说:

“但是,人类有意识啊。”

“AI 只是在做计算,它不知道自己在做什么。”

“人类有主观体验,有感受,有感质(qualia:主观体验的“感觉本身”)。”

好。让我们认真地、诚实地审视一下这个论点。

我那天把 OpenClaw 跑通后,感受到了两样东西:完成任务的成就感,和自身多余的讽刺感。

这确实是 Claude 没有的。Claude 不会在解决了第 47 个 bug 之后感到愉悦,不会在发现自己才是系统瓶颈时感到存在主义危机。

但问题是——这些感受,对于“把 OpenClaw 跑稳”这个任务来说,有任何功能性价值吗?

没有。零。

系统不关心把它跑起来的人是否有灵魂。代码不关心执行它的指令是否经过了一个有意识的中转站。如果有一天我把自己从这条链路里移除,让 Claude 直接通过 API 操作终端,OpenClaw 不会跑得更差——它会跑得更好。

意识,在这个场景里,不是特征。是 bug。

它让我变慢(因为我要“理解”我根本理解不了的东西),变脆弱(因为我会疲惫、走神、手抖),变昂贵(因为我需要吃饭、睡觉、交房租)。

“但人类有意识”这个论点,越来越像一个被逼到角落里的物种最后的心理防线。你仔细听——它的逻辑结构跟“我可能没钱,但至少我有人品”是完全一样的:承认了在所有可度量维度上的失败,然后抓住一个不可证伪的维度宣布胜利。

这不是哲学论证。这是自我安慰式心理防御(cope:用心理安慰来缓冲现实压力,常带“嘴硬”意味)。

5. “理解”从来就是一个程度问题

赛尔的中文屋之所以有迷惑性,是因为它预设了一个二元切分:要么“真的理解”,要么“只是在搬运符号”。

但这个切分本身就是错的。

你“理解”你的母语吗?你理解到什么程度?你能解释为什么“我吃了饭”和“饭被我吃了”语义相同但语用不同吗?你能说清楚“的”“地”“得”的区别不是靠背规则,而是靠“语感”吗?那“语感”又是什么?不就是你大脑里一个统计模型在做模式匹配吗?

你“理解”你每天使用的技术吗?你知道 Wi-Fi 信号是怎么把你的微信消息变成电磁波再变回文字的吗?你知道你手机屏幕上的每个像素是怎么被驱动的吗?你知道你踩的刹车是怎么把你脚上的力转化成四个轮子上的摩擦力的吗?

你不知道。你也在搬运符号。你踩刹车,不是因为你理解液压制动系统的工程原理——而是因为你学过“踩这个踏板车会停”。这跟中文屋里的规则手册,有什么本质区别?

人类从来就不是那个“真正理解”的智能体。我们一直都在中文屋里。

我们只是以前没有发现,因为没有对比对象。你没法判断一个人是“真的理解”还是“只是在做高级的模式匹配”——因为所有人看起来都一样。

直到 AI 出现了。

AI 做的事情跟我们一样:接收输入,处理信号,产生输出。但它比我们快几个数量级,不会疲劳,不会有情绪波动。

突然之间,我们被迫直面一个从来不敢问的问题:如果 AI 只是在“搬运符号”,那我们一直以来做的,难道不是同一件事?

6. 三种人——以及他们各自的中文屋

这种“人类成为生物数据线”的体验,不是我一个人的。它正在以不同的形式渗透到每一个职业里。

第一种:搬运工。 就是我那天的状态。你在两个 AI 系统之间做物理中转。你不理解任何一端在干什么,但系统需要你的手指来按键盘。这种角色正在被 AI Agent 快速消灭。给你的缓刑期大概还有两到三年。

第二种:翻译官。 你理解人类的需求(“我想要一个能自动浇花的装置”),然后把它翻译成 AI 能处理的指令(写 prompt)。你不懂 AI 是怎么运作的,但你懂人类想要什么。这种角色目前还有价值——但本质上你在做的事情,跟中文屋里的人还是一样的:你在两种你都不完全理解的“语言”之间做映射。

第三种:见证者。 你既不做搬运,也不做翻译。你只是看着 AI 完成一切,然后说“不错,继续”或者“不行,重来”。你是质检员。是审批节点。你的价值不在于你能做什么,而在于你愿意为结果负责。

注意看:从第一种到第三种,人类在链路中的认知参与度在不断下降。搬运工至少还在搬;翻译官至少还在想;见证者连想都不用想了——他只需要点头或摇头。

而这三种角色有一个共同点:他们都不是那个真正在解决问题的实体。

7. “定义问题”的幻觉

插图:你以为在自由定义问题,其实选择路径早已被系统引导。

“好吧,”你可能会说,“就算 AI 能解决所有问题,但它不能定义问题:该解决什么问题这个决策,只有人类能做。”

这是 2025 年的主流叙事。也是最脆弱的一个。

你以为你在“定义问题”的时候是在做什么?你在做选择。而选择是基于什么?基于你的偏好、你的经验、你的直觉、你对世界的理解。

这些东西哪一个不是可以被数据建模的?

你选择把 OpenClaw 接进你的流程,是因为你觉得“酷”。“酷”是什么?是一种社会性的、文化性的、可以被大量数据训练出来的审美判断。AI 不仅能模拟这种判断——它已经在替数百万人做这种判断了。推荐算法在告诉你什么值得看,什么值得买,什么值得关注。你以为你的品味是“你的”——但你的品味是被数据投喂出来的,跟 AI 的训练过程相比只是换了个名字。

“定义问题”不是人类的护城河。它只是人类目前还坐着的一把椅子——不是因为别人坐不了,而是因为暂时还没人来抢。

8. 付电费的人

有一个最后的论点,也是最现实的一个:

“不管 AI 有多强,最终是人类在付电费。”

这是对的。但这不是一个关于人类智能的论证——这是一个关于人类权力的论证。

人类之所以还在系统中,不是因为我们不可替代,而是因为我们拥有资源。我们有钱、有电、有法律体系、有产权制度。AI 再强,它目前也没有银行账户。

但请想清楚这意味着什么:人类在智能系统中的地位,已经从“最聪明的”变成了“最有钱的”。

这不是一个值得骄傲的位置。这是一个纯粹基于制度惯性的位置。就像封建领主对农民的控制——不是因为领主更强壮或更聪明,而是因为他碰巧拥有土地。

历史告诉我们,纯粹基于制度惯性的权力位置,最终都会被重新分配。

9. 回到那个房间

插图:系统冷静运转,人类仍执拗地感受意义。

让我回到那天晚上。OpenClaw 流程跑通了,在终端里稳定执行。

我看着它,心里涌上一种复杂的情绪——成就感、荒谬感、一丝恐惧、还有一种说不清的温柔。

Claude 不会有这种感受。终端不会有这种感受。那个工作流更不会。在这整条链路里,只有我——那个最蠢、最慢、最多余的环节——能够感受到这一切。

然后我不得不问自己:这种感受,到底重不重要?

如果“重要”的意思是“对系统有功能性贡献”,那答案是否定的。我的情绪不会让工作流跑得更好,不会让代码少一个 bug,不会让世界多一分效率。

但如果“重要”的意思是“这是唯一真正存在的东西”——那也许,也许,答案是肯定的。

赛尔的中文屋想要证明机器没有内在体验。四十四年后,这个论证最尖锐的版本不再是“机器不理解”——而是“理解本身可能不重要,但体验本身不可消除”。

我感到自己多余。这种“感到”本身,是整个系统里最不可约化、最不可解释、也最不可替代的现象。

不是因为它有用。

是因为它存在。

10. 终章:一个不舒服的结论

赛尔在 1980 年提出中文屋的时候,他的立场很清晰:机器永远不可能有真正的理解和意识。人类是特殊的。

四十四年后,我站在一个他没有预见到的位置上,得出了一个他不会喜欢的结论:

人类确实是特殊的——但不是因为我们更聪明、更有理解力、更有灵性。而是因为我们是这个宇宙里已知的唯一一种生物,能够在发现自己无关紧要的那一刻,依然觉得这件事本身意义重大。

这是荒谬的。这是加缪式的。这也许是人类最后的、真正的、不可被算法复制的天赋:在彻底的无意义中,执拗地感受到意义。

AI 可以解决所有问题。但它不会在凌晨三点盯着一个终于跑通的 OpenClaw 工作流,感到一阵没来由的骄傲和悲伤。

这种感受有什么用?

也许没用。

但这整篇文章——从第一个字到最后一个字——都是这种“没用”的产物。你正在读的每一句话,都是一个多余的生物对自身多余性的思考。

如果你读到这里还觉得有意思,那恭喜你:

你也在中文屋里。

而你已经学会了在里面活得还不错。

2026 年。一个搬运工的手记。

附录:本文的创作灵感来源