法官叫停五角大楼封杀 Anthropic:一场 AI 军用边界之争,先在法庭上打响了

人工智能 2026年3月27日
美国法院暂时阻止五角大楼将 Anthropic 列为“供应链风险”,理由并不只是程序问题,而是直指政府可能因企业公开发声而实施报复。这起案件的真正分量,在于它把一个越来越尖锐的问题推到了台前:当 AI 公司不愿让模型用于致命自主武器和国内大规模监控时,国家机器能否用采购权逼它低头?

一纸禁令被按下暂停键,Anthropic 先赢了半场

美国 AI 公司 Anthropic 和五角大楼这场持续数周的硬碰硬,终于迎来了一个带戏剧性的转折:联邦法官 Rita F. Lin 批准了 Anthropic 的初步禁令申请,暂时阻止国防部对其实施“供应链风险”黑名单措施。换句话说,在案件正式判决出来之前,五角大楼不能先把 Anthropic 一脚踢出政府采购大门。

法官的措辞相当不客气。她在裁定中写道,国防部的记录显示,之所以把 Anthropic 定义为供应链风险,理由之一竟是它“通过媒体表现出敌对态度”。这句话翻译成大白话就是:你公开批评我,所以我收拾你。法官因此认为,这很可能构成对言论自由的非法报复,属于典型的第一修正案问题。

这不是普通的商务纠纷,更不是“合同条款谈崩了”那么简单。美国政府当然有权决定买谁家的 AI,不买谁家的 AI,这在市场上很常见,企业也得接受。但问题在于,政府是不是可以因为企业在公共议题上发声、划出伦理红线,就给它扣上一个通常留给外国对手或可疑供应商的高风险帽子?法院眼下给出的答案是:先别这么干,至少要把道理讲清楚。

争的不是合同细节,而是 AI 能不能被拿去“自动杀人”

这场冲突的源头,要追溯到今年 1 月美国国防部长 Pete Hegseth 发出的一份备忘录。文件要求国防部在 180 天内把“任何合法用途”写进 AI 服务采购合同,而且这不仅影响新合同,也可能波及 Anthropic、OpenAI、xAI、Google 等现有合作方。

问题一下子就尖锐了。Anthropic 不愿接受的两条“红线”非常明确:一是不能把 Claude 用于美国国内的大规模监控,二是不能用于致命自主武器,也就是那种无需人类实质参与决策、就能自行识别和打击目标的 AI 系统。

这背后不是公关辞令,而是真正的价值分歧。Anthropic 的立场是:技术是我提供的,我有权决定它不能被用在什么地方。军方的立场则是:安全边界该由军事指挥体系来决定,不该由一家模型公司用服务条款替政府下命令。

法官在听证会上其实把争议说得很明白。她并没有站到哪一边去判断“谁更懂安全”,而是指出,国防部完全可以不买 Claude,去找一个更听话的供应商,这在法律上问题不大;但如果国防部不只是终止合作,而是进一步用“供应链风险”这样的标签来惩罚企业公开表达立场,那性质就变了。

这里有一个很值得玩味的现实:AI 行业这两年嘴上都在谈“负责任的 AI”,可一旦进入国家安全和军工采购场景,所谓原则就会迅速碰上钢板。Anthropic 此次没有退,至少说明一件事——不是所有大模型公司都愿意把“安全”写在发布会上,把“例外”写进军方合同里。

“供应链风险”这顶帽子,为何让全美都皱眉

Anthropic 起诉的核心,是要求撤销这项“供应链风险”认定。之所以舆论反应激烈,是因为这个标签在美国几乎带着非常特殊的政治意味。它通常用于那些被怀疑与外国对手存在联系、可能威胁国家安全的公司。你很少看到一家美国本土 AI 公司,仅仅因为和国防部谈崩了用途边界,就被打上这类标签。

这也是为什么事件迅速引发两党争议。因为它传递出一个危险信号:如果政府可以把本国企业也轻易塞进“风险供应商”框架,那这个工具就可能从国家安全审查,滑向政策施压,甚至滑向政治惩罚。今天是 Anthropic,明天会不会轮到别的云计算厂商、芯片公司,或者拒绝接受特定用途的生物技术企业?

更现实的一层是商业后果。对一家高速增长的 AI 公司来说,被政府贴上“供应链风险”标签,杀伤力远不止丢几个订单。它会影响合作伙伴判断,影响大型客户信心,甚至影响资本市场对公司治理和合规稳定性的看法。说得直接一点,这不是“不愉快的商务摩擦”,而是可能让一家公司的信誉系统出现裂缝。

而就在 Anthropic 与五角大楼僵持期间,其他 AI 公司也并没有闲着。竞争对手趁机递方案、谈合作,这一点毫不意外。AI 行业如今已经进入一个很现实的阶段:价值观可以拿来宣传,但政府大单是真金白银。谁愿意配合更多场景,谁就可能拿下更多预算。这也解释了为什么 Anthropic 的坚持显得格外少见——它不是在抽象讨论伦理,而是在用可能失去市场的代价守住立场。

这起案件真正重要的地方:它在给 AI 公司和政府重新划线

我觉得,这起案件最重要的地方,不是 Anthropic 能不能赢到最后,而是它提前把未来几年一定会反复出现的冲突摆上了桌面:AI 公司究竟只是工具供应商,还是有权对技术用途持续施加约束的“共同责任方”?

过去几十年,科技公司和政府合作并不新鲜。微软、亚马逊、Google 都曾卷入军方项目争议。Google 当年因为 Maven 项目引发员工抗议,最终调整部分军用 AI 原则;微软则在国防云项目上更强调“为民主制度提供技术支持”;Palantir 长期与安全机构深度绑定,几乎代表了另一种完全不同的价值选择。现在,大模型公司把这道题又做了一遍,只不过这次更敏感,因为语言模型和多模态模型的能力边界太宽,几乎能从情报整理一路延伸到监控分析、目标识别和作战辅助。

所以 Anthropic 案件的分量,不在于它是个孤立的法律新闻,而在于它可能塑造一个先例:当政府采购 AI 时,企业是否有权保留“不用于某些合法但我认为不可接受的场景”的空间?如果法院最终支持这种空间,那对整个行业都是一次重新定价。因为这意味着,AI 公司不只是卖 API,不只是按 token 收费,它们还在出售一种有边界的能力。

反过来看,这也会让另一个问题浮出水面:如果每家模型公司都自带一套用途红线,国家安全机构还能否建立稳定、统一、可持续的采购体系?军方显然不会喜欢被供应商牵着鼻子走。于是未来很可能出现两条路:要么政府推动更强的标准化合同,逼企业接受更广泛的用途授权;要么政府扶持更“可控”的供应商,甚至发展更多闭源、内生的国防 AI 体系。

从产业趋势看,后者的可能性并不小。尤其在中美 AI 军备竞争、地缘政治升温、生成式 AI 深度渗透情报与指挥系统的背景下,政府不会把关键能力完全交给一家坚持“有些事我不做”的商业公司。Anthropic 这次赢了临时禁令,但也可能加速美国军方寻找更顺从、也更深度绑定的 AI 合作伙伴。

一场诉讼,照出了 AI 时代最尴尬的真相

这件事最让人感慨的地方,是它把科技行业一直试图模糊处理的矛盾一下子点亮了。大家都爱说 AI 要安全、可信、可控,可一旦进入现实政治,三个词马上变成三种不同语言。企业说的“安全”,往往是设定红线、控制风险;军方说的“安全”,则是确保自己在关键时刻拥有足够权限和足够工具。听上去都叫安全,实际上根本不是一回事。

Anthropic 这次的姿态会让不少人觉得理想主义,甚至有点“不懂现实”。可说句公道话,恰恰是这种不那么圆滑的坚持,才让行业里那些平时被包装得很漂亮的原则,终于接受了一次压力测试。否则,所谓 AI 伦理很可能只在官网和开发者大会上存在,一到采购谈判桌上就悄悄改口。

接下来几周或几个月,法院的最终裁决仍有悬念。但有一点已经很清楚:AI 不再只是新一代软件生意,它正在变成国家能力、法律权利和企业伦理三股力量交叉拉扯的核心地带。过去我们常问,大模型会不会取代搜索、改造办公、重做互联网;现在的问题更硬核也更不舒服——它会被谁掌控,又能被用来做什么。

如果说这场官司有什么“延伸阅读”价值,那就是提醒我们别把 AI 公司想得太单纯。它们不是纯技术中立的云服务商,也不是单靠理想主义运转的研究机构,而是在利润、原则、国家压力之间不断校准位置的复杂组织。Anthropic 这次把脚踩在刹车上,法院暂时帮它按住了油门,但这辆车究竟会往哪开,还远没到终点。

Summary: 我倾向于认为,Anthropic 这次拿到初步禁令,不只是程序上的小胜,更可能成为美国 AI 军用治理的一个分水岭。短期看,政府在采购 AI 时会更谨慎,至少不敢轻易把“国家安全”标签当成施压工具;长期看,军方和模型公司之间的裂缝只会更明显。我的判断是,未来美国会出现更清晰的“军用 AI 供应商分层”——一类坚持用途边界,一类则深度拥抱国防体系,而真正决定行业走向的,将不是谁模型更强,而是谁能在权力与原则之间活得更久。
Anthropic五角大楼AI军用边界致命自主武器政府采购供应链风险言论自由第一修正案国防部国内大规模监控