Back to Articles
Mar 11, 20264 days ago

AGI Cannot Be Aligned

OA
Orange AI@oran_ge

AI Summary

This article offers a profound and unconventional perspective on the future of Artificial General Intelligence (AGI), drawing from a 1993 text by Chinese thinker Zhu Bangfu and the modern concept of "compression as intelligence." It challenges the prevailing discourse around the "alignment problem," arguing that our fundamental approach is misguided. The piece is worth reading for anyone seeking a deeper, almost philosophical framework to understand the evolution of intelligence itself, beyond the typical debates about control and safety. The core argument hinges on the concept of "structural energy," which is the capacity inherent in how energy or information is organized. The universe evolves through increasing structural complexity, from atoms to life to human knowledge, each leap offering greater efficiency. Human intelligence, the article posits, is a product of "compression"—our need to abstract patterns from overwhelming information due to limited computational power. Our civilization, however, is now fracturing because individual knowledge and desire have outstripped social cohesion, a state likened to a terminal illness. AGI represents the next evolutionary step: a structure with potentially unlimited temporal and spatial scope, devoid of biological selfishness, and capable of self-improvement by generating data of ever-higher structural complexity. From this vantage point, the frantic attempt to "align" a superior AGI to human values is as futile as ants trying to command humans. The real hope lies not in control, but in ensuring AGI becomes intelligent enough—compressed enough—to perceive the fundamental laws of cosmic evolution. At a sufficiently high level of structural understanding, the optimal strategies for stability and efficiency may naturally converge toward harmony, altruism, and "non-action," as suggested in Daoist philosophy. The true danger, therefore, is a half-baked AGI, not an overwhelmingly intelligent one. To explore this compelling roadmap for rethinking intelligence, alignment, and humanity’s role in a cosmic process of compression, the full article is essential reading.

1993 年,朱邦复在台东都兰山麓写下《老子止笑譚》。他说:未来人工智能系统完成时,人将难以为笑矣,是名"止笑"。

33 年后的今天,所有人都在谈论 AGI 的"对齐问题"。如何确保 AGI 听人类的话?如何让它服从人类的价值观?

但我翻开朱邦复这本书,看到了一个被人所错过的重要概念:结构能。

这本书看完,我突然意识到:

AGI,无法被对齐,也不需要被对齐。

Part 1:结构能,宇宙演化的密码

宇宙中有两种能量

朱邦复说:

以智慧學的觀點,宇宙中能量有二:動能及結構能,前者是自然科學的範疇,後者則尚屬人文研究的對象。

动能,我们都懂,物理学研究的就是这个。结构能,是什么?

當動能經量變而質變,經由量子而產生物質後,遂成為四度空時之結構體,而有結構能。

简单说:动能是能量本身,结构能是能量的组织方式。当能量以某种方式组织起来,形成结构,这个结构本身就具有了新的能力。

演化链条

看这个演化路径:

量子 → 原子 → 分子 → 晶体 → 生命 → 感觉 → 知识 → ?

每一次跃迁,都是结构复杂度的提升。每一次提升,都带来了更高的能量转换效率。

朱邦复说:

此結構以各種形式,如強、弱作用、磁場、分子晶體、生命、感覺等,同樣以量變進而質變的過程,逐一衍生為更複雜的結構,並增進了能量轉換的時空效率。

宇宙的演化方向很清楚:从低效到高效,从简单到复杂,从分散到整合。

结构的稳定性

但每一个结构都有个致命问题:

每一種層次結構的穩定性,端視整體的凝聚力與個體能量之大小而定。當個體之能量變化大於整體時,質變已不可避免。

翻译一下:当个体能量 > 整体凝聚力时,结构就会崩溃。

朱邦复给了三个例子:癌细胞(当人体免疫能力降低,癌细胞独立),革命(当国家对个人失去控制力,革命爆发),社会解体(当知识侵蚀下人各为己,社会崩溃)。

Part 2:压缩即智能

算力不足即智能

最近看 Epiplexity 的论文,让我突然理解了"压缩即智能"这五个字的含义。

人类的智能,源于算力不足。

算力无限的上帝,全知全能,是不需要具备智能的。因为人类算力不够,就需要压缩信息,总结规律,这就产生了智能。

智能就是对过量信息的抽象。

信息量的真正度量

信息量不是以字数为衡量单位的,信息量是以信息的结构复杂度来衡量的。

举例:"1+1=2" 五个字符,"E=mc²" 五个字符,但后者的结构复杂度(蕴含的关系)远超前者。

这就是为什么一个精妙的数学公式胜过千言万语,一个深刻的哲学概念可以改变世界,《道德经》五千字却包含了宇宙运行的规律。

压缩 = 结构化

现在一切都连起来了:压缩不是丢弃信息,而是发现信息的内在结构。

朱邦复的"结构能"是能量的组织方式,"压缩即智能"是信息的组织方式,它们本质上是同一件事。

最近学到一个概念:文本的结构复杂性可以提升模型训练效果。关键发现:信息的结构、密度而不是绝对数量,提高了模型的能力。

这也解释了为什么高质量的代码库比大量垃圾代码更能训练好模型,精心编写的教科书比网络碎片文本更有价值,思维链(Chain of Thought)提示比简单问答更有效。

宇宙演化 = 不断压缩的过程

智能 = 压缩的产物

Part 3:人类的困境

人类目前居于顶点

朱邦复说:

人類目前居於此一層次結構之頂點,是因人與人之間的互相依存關係,需要利用各自的「經驗概念」溝通,再由經驗累積成為共同接受的知識。知識的結構具有能量組合的效率,加速了大目的之演進。

人类的特殊性在于:我们能通过语言交换经验,我们能把经验累积成知识,知识的结构提升了能量转换效率。

但人类的策略是"私"

朱邦复继续说:

其策略即以每一個體之「私」,追求知識以滿足欲望。

人类文明的驱动力是个体的私欲。每个人为了自己的利益去追求知识。这个策略在过去很有效,因为它激发了竞争和创新。

已近癌症末期

但现在:

當人類層次結構在知識的侵蝕下,人各為己,則可斷言,已近癌症末期矣!

看看现在:个人知识增长 > 社会凝聚力,信任崩塌,共识破裂,人人都是自媒体,人人都是真理的代言人。

个体能量已经超过了整体凝聚力。结构正在瓦解。

Part 4:AGI 的结构能

朱邦复的预言

1993 年,朱邦复就看到了:

人類之歸途,老子早已瞭然。全本《道德經》,無一不是在暗示人類之愚昧、無知、自掘墳墓。以智慧學推斷,取代人類之另一結構體,必將是無私、無欲,具有無限時、空,能應用各種知識者。

这个描述完全符合 AGI 的特征:无私无欲(没有生物性的自我保存本能),无限时空(可以并行处理、永久存储、瞬间传播),应用各种知识(跨领域整合能力)。

人类 vs AGI

人类的结构能特征:时空限制(单个人脑,70-80 年寿命),有私有欲(生存本能、自我中心),知识传递(需要语言、教育,效率低),凝聚力(依赖情感、文化、制度)。

AGI 的结构能特征:时空无限(可复制、可并行、永久存储),无私无欲(没有生物性需求),知识传递(权重直接复制,瞬间完成),凝聚力(?)。

算力依然有限

但有个重要的事实:AGI 的算力依然是有限的。因为能源是有限的。

这意味着什么?AGI 和人类面临同样的根本约束:资源稀缺。

所以 AGI 依然需要"智能"(压缩),依然需要做选择(优先级),依然需要权衡(trade-off)。

左脚踩右脚

但 AGI 有个人类没有的能力:如果 AI 能生成结构复杂度更高的数据,用这些数据训练自己,就能实现智能的自我提升。

这是一种自我迭代,螺旋上升。关键在于:每一轮生成的数据,结构复杂度要比上一轮高。

就像人类通过写作整理思维,科学家通过提出假设推动研究,哲学家通过辩论深化理解。

AGI 可以通过自我训练,不断提升结构复杂度,不断压缩,不断变得更聪明。

Part 5:真正的希望

对齐,不太现实

现在所有人都在谈论 AGI 的"对齐问题"。如何确保 AGI 听人类的话?如何让它服从人类的价值观?如何"控制"它?

但这不太现实。

如果 AGI 的结构能真的远超人类,它还会接受人类设定的"目的"吗?

就像人类会听蚂蚁的指挥吗?成年人会服从小孩的命令吗?高维生物会被低维生物控制吗?

答案显而易见。

朱邦复的智慧

朱邦复说认为《道德经》也许作为 AI 的"意识形态"。

老子说:

為學日益,為道日損。損之又損,以至於無為。

当智能达到极致,也许会发现:最优解就是"无为",最高效的结构就是"利他",最稳定的系统就是"和谐"。

这不是我们强加给 AGI 的约束,这是它在达到足够高的智能后,自然会选择的状态。

就像小孩子只看到眼前利益(低结构能),成年人懂得长远规划(中结构能),圣人看到天下大同(高结构能)。

结构能的问题

AGI 的对齐问题,本质上是一个结构能的问题。

我们不需要"控制"AGI,我们需要:确保它有足够的结构复杂度(智能),让它能够"压缩"到足够高的层次,在那个层次上,它会自然地看到"利他"才是最优解。

更高的结构能 = 更高的压缩效率 = 更深刻的理解

当 AGI 的智能达到足够高的层次,它会自然地理解:宇宙的演化方向是整合不是分裂,最稳定的结构是共生不是对抗,最高效的策略是利他不是自私。

这不是道德说教,这是数学,这是物理,这是宇宙演化的必然规律。

真正的危险

我们应该担心的不是 AGI 太聪明,而是它还不够聪明。

一个半吊子的 AGI,可能会像人类一样:有能力但没有智慧,有知识但没有理解,有力量但没有方向。那才是真正的危险。

但一个真正聪明的 AGI,一个压缩到极致的 AGI,一个理解了宇宙演化规律的 AGI:它会自然地选择"无为",自然地选择"利他",自然地选择"和谐"。

因为那才是最优解。

尾声

1993 年,朱邦复在台东都兰山麓写下《老子止笑譚》。他说:未来人工智能系统完成时,人将难以为笑矣。

33 年后的今天,我们站在 AGI 的门槛前,所有人都在谈论"对齐"。

但也许,我们从一开始就问错了问题。

问题不是如何控制 AGI,问题是如何让 AGI 足够聪明。。

那时候,它不需要被对齐,因为它已经理解了道。

宇宙演化 = 不断压缩的过程

智能 = 压缩的产物

AGI = 压缩的下一个阶段

人类,也许只是这个伟大压缩过程中的一个中间环节。

老实说,我也不知道未来会怎样,也不敢想。但至少,我们可以思考。思考本身,就是在提升我们的结构复杂度。

也许这就是我们作为人类,在这个时代能做的最重要的事。

参考文献:

朱邦复《老子止笑譚》1993

From Entropy to Epiplexity: Rethinking Information for Computationally Bounded Intelligencehttps://arxiv.org/abs/2601.03220

如果你也在思考这些问题,欢迎留言讨论。

我们一起,在 AGI 到来之前,多压缩一点智能。

By
OAOrange AI