法官叫停“封杀令”:当美国政府想把 Anthropic 赶出门,撞上的不只是 AI 争议,还有宪法

Anthropic 和美国政府这场官司,表面上看是一次政府采购纠纷,实际上却像一把手术刀,直接划开了今天 AI 产业最敏感的一层皮:如果一家 AI 公司不愿意让自己的模型被用于“大规模监视美国人”或“全自主致命武器”,政府能不能反手就把它打成“供应链风险”,顺便让整个市场都不敢和它做生意?
美国加州北区联邦地区法院法官 Rita Lin 的回答相当直接:不能。她在最新裁定中批准了 Anthropic 的初步禁令申请,认为美国“战争部”(原文如此称呼,实际上指向的是当前国防系统)对 Anthropic 的封杀,极可能构成典型的“第一修正案报复”。翻得更白一点,就是:你不是因为它危险才整它,你是因为它公开顶撞你才整它。
这句判断很重。因为它意味着,这不再只是“政企合作谈崩了”,而是政府权力越界、借国家安全之名惩罚异议者。放在今天的 AI 竞赛背景下,这个信号尤其刺耳。
一场看似技术分歧,实则政治化的“封杀”
事情的导火索并不复杂。过去一年,美国军方一直在使用 Anthropic 的 Claude 模型,而且从法官披露的记录来看,合作一开始相当顺利。政府部门做过审查,公开夸过这家公司,甚至准备扩大合作。真正的分歧出现在军方希望把 Claude 部署到某个军事平台上,而 Anthropic 同意合作时附带了两个关键限制:不能用于针对美国人的大规模监控,也不能用于全自主致命武器。
Anthropic 的理由并不神秘,甚至相当符合它一贯的人设。这家公司从成立起就把“AI 安全”挂在门口,内部治理结构里甚至专门设计了偏向公共利益的机制。它不是第一家对军用 AI 犹豫的公司。早些年,Google 就因为 Maven 项目遭遇员工大规模抗议,最后不得不调整军事 AI 合作边界;微软、亚马逊则走得更务实,在国防合同上更愿意往前一步。Anthropic 这次的态度,某种程度上更像是把硅谷那场“技术理想主义 vs. 国家机器”的老争论,重新点燃了。
问题在于,军方和特朗普阵营显然不打算把这当成普通商业分歧处理。特朗普在社交平台上把 Anthropic 斥为“激进左翼、觉醒公司”,国防系统高官也公开指责它“傲慢”“背叛”,还宣称封杀令立即生效。法官从案卷里看出的逻辑相当直白:这些措施更像是在惩罚 Anthropic 把争议带到公众面前,而不是基于一套扎实、可验证的国家安全风险评估。
说得刻薄一点,这种操作很像把“你不听话”包装成“你很危险”。在科技新闻里,我们这些年已经见过太多类似叙事,只不过过去更多针对的是海外企业、社交平台或者芯片供应商。这次轮到了一个美国本土 AI 公司,冲击力自然更大。
法庭上的尴尬时刻:政府律师说,“我不知道”
这起案子之所以迅速引爆舆论,很大程度上是因为庭审细节实在过于戏剧化。法官在裁定书里写到,当她追问政府律师:国防部长 Hegseth 到底依据哪条法律,有权发布这样的禁令时,对方承认自己“不知道有任何相关法条”,甚至同意那份公开声明“根本没有法律效力”。
更绝的是,法官继续追问:既然没有法律效力,为什么还要发?政府律师的回答是,“I don’t know(我不知道)。”
一个影响数十亿美元潜在合同、足以让合作伙伴立刻取消交易、并可能把一家头部 AI 公司打入冷宫的行政动作,最后在法庭上被拆解成一句“我不知道”,这场面已经不只是尴尬,而是近乎荒诞。它暴露出的问题很严重:在“国家安全”这面大旗之下,行政部门有时似乎默认自己只要嗓门够大,程序和证据就都可以靠后站。
法官显然不买账。她指出,所谓“供应链风险”标签,通常针对的是外国情报机构、恐怖组织或敌对行为体,而不是一家公开在美国经营、此前还与军方合作良好的本土企业。更关键的是,政府拿不出足够证据证明 Anthropic 构成“迫切的国家安全威胁”。他们的说法大致是:Anthropic 未来也许可以通过产品更新破坏系统,所以危险。这个逻辑的问题在于,任何 IT 供应商理论上都可能有类似风险。如果这都能成立,那政府采购名单上恐怕没人是无辜的。
而 Anthropic 还提交了未被有效反驳的证据,证明它并不能单方面强行控制政府系统或推送足以瘫痪系统的更新。法官的判断因此很实际:如果政府真担心风险,停止使用其产品就是了,没必要祭出“封杀全行业合作”的重锤。
这不是 Anthropic 一家的战争,而是整个 AI 行业的预演
为什么这件事重要?因为它会影响未来每一家 AI 公司面对政府订单时的谈判姿态。
今天的大模型公司,一边渴望政府合同——那是真金白银,也是进入关键基础设施体系的入场券;另一边又害怕自己被拖进伦理深坑,比如大规模监控、自动化杀伤、预测式治安等高风险用途。过去几年,不少 AI 企业都在宣传“负责任 AI”,也都爱谈红线、原则和治理。但真到了合同桌上,如果企业一提出限制条款,政府就能用采购权、舆论权乃至行政权来反制,那这些“原则”很可能会迅速沦为官网上的装饰画。
法官在裁定中提到一个很关键的担忧:如果政府把公开表达不同意见的供应商贴上“对手”标签,就会寒蝉效应四起。谁还敢说真话?谁还敢在模型尚不成熟时提醒“这个场景别急着上”?AI 的危险恰恰在于,它不是一把看得见的锤子,而是一套会随着数据、部署环境和使用者意图不断变形的系统。最懂这些风险的人,很多时候正是模型提供方本身。如果他们都因为担心得罪甲方而沉默,公共安全的最后一道提醒机制就会失灵。
从这个角度看,Anthropic 并不只是为自己而战。它某种意义上是在替整个行业争一个先例:AI 公司能否在卖技术的同时,保留对某些用途说“不”的权利?这个问题听起来理想主义,实际上非常现实。因为谁控制模型使用边界,谁就在某种程度上定义下一代国家能力的伦理边界。
国家安全不能成为一张万能牌,AI 安全也不能只停留在公关话术
当然,站在政府一边,也不是完全没有焦虑。现代军方越来越依赖软件、云服务和 AI 模型,任何关键供应商在价值观、合同条款或技术路线上的摇摆,都会被放大成作战层面的不确定性。国防系统最怕的不是厂商“贵一点”,而是关键时刻掉链子。美国军方高官那句“你不能把 AI 卖给国防部,又不让它做国防部的事”,虽然粗暴,却说出了很多鹰派官员的真实想法。
可问题在于,“国防部的事”边界到底在哪里?是情报分析、后勤调度、网络防御,还是对本国公民的监控、对生杀决定的自动化授权?这些不是一个采购合同里顺手勾选的小选项,而是现代民主国家必须公开讨论的政治问题。政府当然有权选择更配合的供应商,但它不能因为供应商在公共议题上持不同意见,就动用含有惩罚意味的行政标签去封堵其生路。
这也是这份裁定最有价值的地方:它没有替 Anthropic 宣布“道德上全赢”,也没有替军方宣布“国家安全优先所以一切都对”。法官只做了一件非常重要、但在这个时代越来越稀缺的事——要求权力给出法律依据,要求“国家安全”四个字后面必须有证据、有程序、有边界。
接下来,政府大概率还会继续上诉,试图争取更长时间的暂停执行。短期内,这场官司还远没结束,Anthropic 也不可能因此高枕无忧。它已经遭遇交易取消和合作延迟,商业层面的伤害往往比法院判词来得更快。更微妙的是,即便官司赢了,它还得继续和政府打交道,因为今天任何想做“基础模型国家队供应商”的企业,都不可能完全绕开华盛顿。
但这场冲突已经留下了一个清晰注脚:AI 时代最难的问题,可能不是模型有多强,而是谁有权决定它该被用在哪里。当政府想把这个决定权全握在手里,而企业又试图保住自己的伦理底线时,法庭就成了最后的缓冲区。
这听上去很美国,也很2026。可再往前看一步,这其实也是所有拥抱 AI 的国家都迟早会遇到的题目。今天是 Anthropic,明天也许会是任何一家手里握着关键模型、关键芯片、关键云平台的公司。技术越基础,冲突就越像政治;而一旦政治开始下场,程序正义就比以往任何时候都重要。