Back to Articles
Mar 1, 20262 weeks ago

US Military Used Anthropic's AI in Iran Airstrike Just Hours After Ban Took Effect

小互@xiaohu

AI Summary

This article delves into a stark and timely paradox at the intersection of artificial intelligence, military power, and corporate ethics. It examines how, mere hours after a presidential order banned all federal use of Anthropic's AI, the U.S. military reportedly employed the company's Claude system in a major airstrike on Iran. This incident is not an isolated glitch but a revealing case study in the entrenched, real-world dependency on advanced AI for modern warfare, from intelligence analysis to target identification, creating a friction point that no immediate decree can easily undo. The core of the conflict lies in a fundamental disagreement over who sets the rules. Anthropic, the sole frontier AI company with models on the Pentagon's classified network, insisted on contractual "red lines" prohibiting use for mass surveillance or fully autonomous weapons. The Defense Department, however, refused such limits, demanding the freedom to deploy AI for "all lawful uses," leading to a high-stakes standoff. This dispute has triggered a seismic rift within Silicon Valley, exposing the tension between "AI safety" principles and the immense pressure from government and commercial interests, as seen in the contrasting paths taken by Anthropic, OpenAI, and xAI. Ultimately, this story forces us to confront urgent, uncomfortable questions that move beyond theoretical debate. With AI now actively participating in live combat operations, the article challenges us to consider where the line between "assisting" and "participating" in warfare truly lies, and what moral responsibility—if any—falls upon the creators of these powerful systems. To fully grasp the implications of this new era of algorithmic conflict and the profound power struggle it has ignited, the complete analysis is essential reading.

2月28日凌晨,美国和以色列联合对伊朗发动了代号"Epic Fury"的大规模空袭行动。

据《华尔街日报》报道,包括美国中央司令部在内的多个军事指挥部,在对伊朗的空袭行动中依然使用了Anthropic的Claude AI系统,用于情报评估、目标识别和战场场景模拟。

一个极其讽刺的细节是:就在数小时前,特朗普刚刚下令所有联邦机构"立即停止"使用Anthropic的技术,国防部长赫格塞斯也将这家AI公司列为"国家安全供应链风险"。

禁了,但又没完全禁。这不是一个段子,而是AI时代军事依赖的真实写照。

时间线:48小时内发生了什么

要理解这件事的荒诞性,需要先把密集发生的事件按时间排列:

2月27日(周五)下午5:01,五角大楼给Anthropic设定的最后通牒到期。Anthropic拒绝妥协,坚持不允许Claude被用于大规模监控美国公民或完全自主武器系统。

2月27日(周五)傍晚,特朗普在Truth Social上发帖:"我命令美国政府的每一个联邦机构立即停止使用Anthropic的技术。我们不需要它,我们不想要它,也不会再和他们做生意!"随后赫格塞斯宣布将Anthropic列为"供应链风险",这个标签通常只用于华为、卡巴斯基这类与外国对手有关联的公司。

2月27日(周五)深夜,OpenAI的CEO Sam Altman宣布,OpenAI已与国防部达成协议,将其模型部署到保密网络。

2月28日(周六)凌晨,美国和以色列对伊朗发动大规模空袭。特朗普随后宣称伊朗最高领袖哈梅内伊已在空袭中身亡。

2月28日(周六),《华尔街日报》在其伊朗空袭实时报道中披露:美军在此次行动中使用了Anthropic的Claude。

Anthropic的AI到底在军事中扮演什么角色

这不是Claude第一次出现在美军的军事行动中。

早在1月份,美军特种部队突袭委内瑞拉抓捕前总统马杜罗的行动中,Claude就已经被使用。当时《华尔街日报》首次披露,Claude通过Anthropic与数据分析公司Palantir的合作关系,被部署在军方的保密网络上。

Anthropic是唯一一家将AI模型部署到五角大楼保密网络的前沿AI公司。这个事实至关重要,它意味着在最敏感的军事行动中,从武器测试到作战期间的通信,Claude是目前唯一可用的前沿大模型。

根据已有报道,Claude在军事场景中的用途包括:分析卫星图像和情报数据、生成情报评估报告、辅助目标识别、模拟战场场景。这些都属于"辅助决策"的范畴,而不是直接控制武器。但问题在于,"辅助决策"和"参与作战"之间的边界,比很多人想象的要模糊得多。

Anthropic与五角大楼之争的核心

这场冲突的本质,不是Anthropic反对与军方合作。恰恰相反,Anthropic一直强调自己是第一家将AI部署到保密网络的公司,并且表示愿意继续服务。

争议的焦点非常具体:Anthropic坚持在合同中保留两条"红线",第一,不允许Claude被用于大规模监控美国公民;第二,不允许Claude被用于完全自主的武器系统(即没有人类参与决策的自动杀伤)。

五角大楼的立场是:军方需要AI工具能够被用于"所有合法用途",不能由一家私营公司来决定军方能做什么、不能做什么。五角大楼方面也反复强调,他们并不打算用AI做大规模监控或自主武器,但就是不愿意在合同里写明这个限制。

Anthropic CEO Dario Amodei在声明中写道:"我们不能凭良心答应他们的要求。"他认为,大规模监控和完全自主武器"超出了当今技术能够安全可靠完成的范围"。

而五角大楼的回应则非常强硬。国防部副部长Emil Michael公开指责Amodei有"上帝情结",赫格塞斯称Anthropic"傲慢自大",特朗普则在社交媒体上骂Anthropic是"激进左翼觉醒公司"。

行业的连锁反应

这场对峙不只是Anthropic一家的事。

OpenAI的Sam Altman最初表态说,他与Anthropic共享同样的"红线",反对AI被用于大规模监控和自主武器。他在给员工的备忘录中写道:"这不再只是Anthropic和国防部之间的问题,这是整个行业的问题。"

但到了周五晚上,Altman宣布OpenAI已经与五角大楼达成协议。他声称协议中包含了类似的安全原则,但外界无法核实具体条款。CNN指出,目前不清楚OpenAI的协议与Anthropic要求的到底有什么实质区别。

Elon Musk的xAI更早就与五角大楼达成了协议,同意Grok被用于"任何合法用途"。Musk本人在X上多次攻击Anthropic,称这家公司"憎恨西方文明"。

与此同时,来自Google、微软、亚马逊和OpenAI的员工组成了两个联盟,要求各自的雇主效仿Anthropic,拒绝给军方无限制使用AI。

这场争论正在撕裂硅谷:一边是"AI安全优先"的理念,另一边是来自政府和商业的巨大压力。

更大的图景:谁来给AI划红线

如果把视角拉远,这个事件折射出的根本问题是:在AI能力飞速增长的时代,谁有权决定AI的使用边界?

过去几十年,军事技术主要由政府实验室和承包商开发,规则由政府制定。但现在,最先进的AI系统掌握在商业公司手中。Anthropic、OpenAI、Google这些公司开发的模型,最初是为消费市场设计的,然后被军方看中。

这造成了一个前所未有的权力博弈:私营公司能否对政府说"不"?

从Anthropic的遭遇来看,答案是:可以说"不",但代价巨大。被列为"供应链风险",被禁止与所有军事承包商合作,被总统公开羞辱。这个标签此前只给过华为和卡巴斯基这种被视为外国安全威胁的公司。

Anthropic已经表示将在法庭上挑战这一认定。但不管法律结果如何,信号已经发出:如果你不配合,下一个就是你。

这件事为什么值得关注

对于关注AI行业的人来说,这个事件的意义远超一次军事行动或一场商业纠纷。

它揭示了几个不容回避的现实:

AI已经深度嵌入现代战争。从委内瑞拉到伊朗,Claude在不到两个月内参与了两次重大军事行动。这不再是实验室里的假设场景,而是正在发生的事实。

技术依赖比政治表态更有惯性。总统可以在社交媒体上一秒钟发布禁令,但军方对特定技术的依赖不是一纸命令就能解除的。当你的保密网络上只有一个可用的前沿AI模型时,你就被"锁定"了。

AI安全不是一个纯学术问题。Anthropic一直被嘲笑为"AI安全教",但这次事件证明,关于自主武器和大规模监控的担忧不是杞人忧天。当AI真的被用于轰炸一个国家的时候,"人类是否应该保持在决策回路中"就不再是哲学问题了。

最后一个问题留给所有人思考:在"Epic Fury"行动中,Claude到底做了什么?它是仅仅在帮助分析情报,还是在某种程度上参与了目标选择?如果一个AI系统帮助确定了轰炸目标,而那个目标恰好是一所学校(伊朗官方称一所女子小学被击中,85名儿童遇难),那么这个AI系统的制造者是否需要承担某种责任?

这些问题没有简单的答案。但在Anthropic的Claude已经实际参与战争的今天,我们不能再假装这些问题不存在。