五角大楼这次发了一张很有分量的名单。
OpenAI、Google、Microsoft、Amazon、Nvidia、xAI、Reflection,七家公司被允许把 AI 工具带进机密环境。官方说法是支持 AI 系统的“lawful operational use”,并建设一支“AI-first fighting force”。
名单外最刺眼的是 Anthropic。
它不是没进过国防系统。材料显示,Anthropic 此前有 2 亿美元级别、涉及五角大楼机密材料的合同。它也不是被说成技术不行。五角大楼 CTO Emil Michael 仍承认,Anthropic 的 Mythos 安全模型在发现和修补网络漏洞方面有特殊能力。
一边认能力,一边挡准入。
这件事的主线就清楚了:美国军方正在用“合法使用”和“供应链风险”重画 AI 公司进入国防核心系统的边界。
谁进门,谁被挡住
这次协议的关键不是普通采购,而是“机密环境”。AI 工具一旦进入这里,就不再只是外部 SaaS 或实验项目,而可能接入国防系统更敏感的工作流。
压缩看,是这张表:
| 对象 | 当前状态 | 关键信息 |
|---|---|---|
| OpenAI | 进入名单 | 此前已与五角大楼就 AI 系统“合法”使用达成相关安排 |
| 进入名单 | 据报道也有类似协议 | |
| Microsoft | 进入名单 | 与美国国防体系关系长期深厚 |
| Amazon | 进入名单 | 云基础设施角色突出 |
| Nvidia | 进入名单 | 名单从模型、云扩展到算力层 |
| xAI | 进入名单 | 此前已与五角大楼达成相关协议 |
| Reflection | 进入名单 | 新创业公司进入机密环境,信号很强 |
| Anthropic | 被排除 | 被五角大楼继续视为供应链风险,并已提起诉讼、获得临时禁令 |
这张表真正说明的,不是“谁家模型最好”。
它说明美国国防 AI 采购正在形成一套准入语言:你能不能进入机密网络,不只取决于能力,还取决于军方如何判断你的可控性、可用性和风险。
这里必须把限制说清。现有材料没有证明 Anthropic 存在间谍行为,也没有证明它有已确认安全漏洞。“供应链风险”目前是五角大楼的定性,Anthropic 正在挑战这一点。
但在国防采购里,一个风险标签已经足够重。
它可以影响能不能进机密网络,能不能参与核心任务,能不能继续拿政府订单。对 AI 公司来说,这比一次丢单更麻烦。它会变成未来采购、合规审查和客户信任里的阴影。
Anthropic 的问题,不是能力不够
Anthropic 被挡住的争议点,集中在红线上。
据报道,Anthropic 拒绝为五角大楼放松关于大规模国内监控和全自主武器的限制。随后,它被禁止进入联邦政府采购体系,并被贴上供应链风险标签。Anthropic 起诉联邦政府,并获得临时禁令。
这就把矛盾拉到了台面上。
五角大楼要的是“lawful operational use”。听起来是合规表述,但对 AI 公司来说,它也是一道服从测试:你是否愿意让模型在军方定义的合法边界内被调用。
Anthropic 的尴尬在于,它不是一个没价值的供应商。
五角大楼 CTO Emil Michael 称它是供应链风险,又承认 Mythos 在网络漏洞发现与修补上有特殊能力。这种反差很关键。它说明问题未必出在“工具不好用”,而是出在“工具背后的公司不够好用”。
这句话有点硬,但更贴近国防采购的现实。
军方买的不是单点功能。军方买的是长期可部署、可约束、可追责、可纳入体系的能力。一个供应商如果在关键用途上保留强红线,就会被视为不稳定变量。
“天下熙熙,皆为利来。”放在这里,不只是说公司逐利,也是在说制度会奖励顺从。谁愿意把模型交得更深,谁更容易进入高等级采购通道。谁坚持边界,谁可能先丢门票。
这对两类读者很具体。
关注 AI 军事化边界的科技读者,不能只看公司发布的安全原则。要看它们进了哪些采购名单、接受了哪些使用表述、有没有为国防客户调整限制。原则写在网页上,准入写在合同里。
关心美国国防科技采购的人,接下来要看的是采购动作而不是口号:Anthropic 的临时禁令能维持多久,供应链风险标签是否被撤销,七家公司里谁会拿到更深的机密部署机会。企业客户和开发团队也会受影响。如果你的产品依赖某家模型,又涉及政府或高合规客户,就可能需要准备替代方案,或者至少延后把单一模型绑定进核心流程。
这不是普通用户今天要不要换聊天机器人的问题。
它更像一个上游信号:模型公司的政策边界,正在变成客户选择和采购风险的一部分。
AI 入营,合同比口号更诚实
我不太买账“军方只是追赶 AI 浪潮”这种轻描淡写的说法。
军方当然会用 AI。情报分析、网络防御、后勤调度、态势理解,都天然需要自动化。把 AI 放进机密环境,也不等于它已经用于杀伤性自主武器。事实不能拔高。
但更大的变量是:谁来定义“合法”。
当五角大楼说“lawful operational use”,它说的是合法作战使用。对外,这是合规语言;对内,这是部署语言。对供应商,这是边界协商。
历史上,电报、铁路、无线电、互联网,扩张到一定阶段后都会进入军事体系。不完全一样,但有一条老逻辑没变:技术一旦成为基础设施,国家机器就会要求它可控、可用、可部署。
今天轮到大模型。
区别在于,大模型不是一条线路,也不是一台设备。它更像判断与行动之间的接口。它可以参与信息筛选、漏洞发现、行动建议、目标识别之前的各种环节。
每一步都可以被称为辅助。
每一步也都在把人的位置往后推一点。
所以 Anthropic 事件的价值,不在于把它包装成“道德公司”。公司有商业利益,也会选择对自己有利的叙事。真正值得看的是这次冲突暴露出的制度问题:当国防客户要求更深使用权时,AI 公司还有多少空间说“不”。
能说“不”的公司,可能拿不到门票。
愿意说“是”的公司,代价也未必马上显现。模型一旦进入战争机器,外界很难再凭发布会上的安全承诺判断它实际承担了什么角色。
接下来最该观察三件事。
| 观察点 | 为什么重要 |
|---|---|
| Anthropic 诉讼后续 | 决定“供应链风险”标签能否被司法程序约束 |
| 七家公司实际部署深度 | 名单只是入口,真正关键是进入哪些机密工作流 |
| 各公司是否调整使用政策 | 如果红线开始松动,说明合同压力已经传导到产品治理 |
这件事不是 AI 公司“参军”这么简单。
它更像一次筛选:谁愿意按国防系统的定义交出更多控制权,谁就更容易进入核心;谁坚持自己的红线,就要承担被排除的成本。
五角大楼发的不是一张供应商名单。
它发的是一张服从度成绩单。
