法官叫停五角大楼“拉黑”Anthropic:当AI公司因为说真话,被当成供应链威胁

一张标签,差点把一家AI公司踢出美国政府生意场
在华盛顿,很多事情不是靠一纸禁令结束,而是从一张标签开始的。Anthropic 这次碰到的,就是这样一张分量极重的标签——“供应链风险”。
按照美国媒体披露,五角大楼上个月把 Anthropic 列为供应链风险对象,这意味着任何和美军有合作关系的企业,都得证明自己没有使用 Anthropic 的产品。翻译成大白话就是:你不是被正式封杀,但你已经很难继续做生意了。对于一家押注政府与企业客户的 AI 公司来说,这几乎相当于被突然按下暂停键。
但加州联邦地区法院法官 Rita Lin 本周做出了一个措辞很重的裁定,暂时无限期阻止五角大楼执行这一措施。她在 43 页的裁决中写得相当不客气,认为现行法律根本不支持一种“奥威尔式”的逻辑:一家美国公司仅仅因为表达了对政府的不认同,就可能被塑造成美国的潜在对手和破坏者。
这句“奥威尔式”,几乎已经把案件的气质定了调。它让这起官司不再只是政府采购纠纷,而变成了一个更尖锐的问题:当 AI 已经深度嵌入国家安全体系,企业还能不能对政府说“不”?
争议的真正核心,不是安全,而是“惩罚”
五角大楼当然不会承认自己是在“报复”一家企业。表面上看,供应链风险标签是国家安全工具,过去主要用于那些被怀疑与外国对手存在关联的公司。放在传统语境里,这类标签通常出现在涉及中国、俄罗斯或其他敏感地缘政治对象的场景中。它的威慑力很强,因为只要被贴上,合作伙伴就会自动后退三步。
问题在于,Anthropic 不是一家外国企业,也不是被指控存在敌对势力背景。它是一家美国本土 AI 公司,而且还是这轮生成式 AI 浪潮中的头部玩家之一。Anthropic 此前起诉五角大楼时就表示,这项认定侵犯了公司的第一修正案权利。换句话说,公司认为自己不是因为技术有问题、供应链有漏洞才被打击,而是因为“说了政府不爱听的话”。
CNN 在此前报道中提到,Anthropic 曾就美国政府推进 AI 竞赛的方式表达不同意见,尤其在国家与企业如何共同塑造 AI 发展路径的问题上,并不完全站在官方那一边。这次法官的裁决,某种程度上等于认可了这个担忧:如果政府能把“国家安全”当成万能锤子,那么每一家依赖政府合同的科技公司,都会被迫学会同一种本领——闭嘴。
这也是我觉得这件事最让人后背发凉的地方。今天被贴标签的是 Anthropic,明天会不会轮到另一家模型公司、一家云厂商,甚至一家芯片设计公司?如果“供应链风险”的定义可以从“你可能和外国对手有关”,扩张到“你的观点让我不舒服”,那它就不再是安全机制,而更像政治工具了。
为什么偏偏是现在:AI军备化,正在把科技公司推向风口
把时间线拉长,你会发现 Anthropic 这场官司并不孤立。过去两年,美国政府和大型 AI 公司之间的关系越来越微妙:一边是白宫、国防部、情报系统对先进模型的兴趣不断升温,另一边是企业越来越担心,一旦走进国家机器的深水区,就很难再掌握自己的边界。
OpenAI、微软、谷歌、Anthropic、Palantir 这些名字,正在以不同方式卷入美国新一轮“AI 国家能力建设”。有人提供基础模型,有人提供云基础设施,有人做国防数据分析,有人则试图在“商业 AI”与“安全 AI”之间保持某种平衡。问题是,政府的合作邀请常常伴随着一种默认前提:你可以参与,但最好别唱反调。
Anthropic 的特殊之处在于,它一直试图把“安全”塑造成自己的核心品牌。从 Claude 模型到公司治理叙事,它都在强调可控性、审慎性和对 AI 风险的敏感。某种意义上,这家公司从诞生起就在讲一件事:AI 不能只比谁更强,还要比谁更稳。可讽刺的是,正是这样一家最爱谈“安全”的公司,如今被政府用“安全”之名按在墙上。
这让人想起科技行业一个老问题:当监管与国家安全开始合流,谁来约束“安全”这个概念本身?过去我们讨论的是 TikTok、华为、Kaspersky 这类被国家安全叙事包围的案例;现在,连美国本土 AI 公司都可能因为政治分歧而吃到同样的铁拳,说明这套机制的适用边界正在变得危险地模糊。
法院这次拦下的不只是五角大楼,也是在提醒硅谷
Rita Lin 法官的裁决,除了叫停措施本身,更重要的是她明确提到了第一修正案和正当程序权利。一个是言论自由,一个是程序正义。这两个词放在 AI 产业里,看起来很“法学院”,其实离商业现实并不远。
因为对 Anthropic 这样的公司来说,真正可怕的不是输掉一场公开审判,而是在没有充分程序、没有透明标准、没有清晰证据的情况下,被政府部门用行政标签提前判了死刑。资本市场未必看得懂每一页法律文书,但它一定看得懂一个信号:这家公司是不是还能安心接项目、招客户、签合作。
法院这次的态度,等于给整个行业打了一剂短暂的镇静针。它告诉所有 AI 公司,至少在美国现有法律框架下,政府不是想怎么贴标签就怎么贴。国家安全当然重要,但它不能自动凌驾于宪法权利之上。尤其是当一项措施看起来像安全审查,实则像定向打压时,法院仍然可能踩下刹车。
不过,这并不意味着 Anthropic 已经彻底安全。法官给了政府一周时间上诉,说明这场较量还远没有结束。更现实地说,就算法院暂时挡住了最直接的行政打击,Anthropic 与五角大楼之间的关系也很难恢复如初。政府客户从来都不是感情驱动型买家,一旦出现这种级别的冲突,很多合作都会进入“先观望再说”的状态。
AI行业接下来要面对的,是一场更大的边界之争
这起案件之所以值得反复看,不是因为它有戏剧性——虽然确实很戏剧——而是因为它提前暴露了 AI 时代最难回答的一个问题:科技公司在国家竞争中,到底是合作伙伴,还是必须服从的工具?
如果把今天的 AI 看作新的电力、新的互联网,政府想抓住它并不奇怪。问题在于,抓住之后,是通过规则协商,还是通过标签威慑?美国这些年一直批评别国用行政力量干预市场、打压企业,可一旦自己的安全焦虑升高,也很容易滑向同样的路径。技术竞争最怕的不是分歧,而是把分歧本身定义成威胁。
对中国读者来说,这场官司也有一种微妙的镜像感。我们早已熟悉“大国竞争”如何改变科技公司的命运,也知道一家公司在国家叙事面前往往显得并不强硬。但 Anthropic 这次把问题送上法庭,至少说明在美国制度内部,企业仍有机会对政府说:你越界了。这种制度摩擦未必总能赢,却能把很多原本会悄悄发生的事情暴露在阳光下。
我更关心的是后续影响。未来美国政府会不会建立一套更正式的 AI 供应链风险评估框架?会不会要求模型公司在政治立场、合规表态、军方合作程度上交出更多“忠诚证明”?如果答案是会,那这不只是 Anthropic 的麻烦,而是整个生成式 AI 行业的方向问题。
说得再直白一点:今天法院挡住了一次粗暴的“拉黑”,但没能消除背后的冲动。AI 已经不是一个纯商业赛道,它越来越像一条国防工业链的延长线。谁能参与,谁能发声,谁能保留独立性,接下来都会变得更难。
而这,才是这起新闻真正让人不安、也真正值得盯住的地方。它表面上是在问五角大楼能不能封杀 Anthropic,实际上是在问:在 AI 成为国家武器之后,科技公司还能剩下多少作为“公司”的自由。