美国国家安全局(NSA)据报正在使用 Anthropic 的 Mythos Preview。这是 Anthropic 本月刚宣布的一款前沿网络安全模型,因为被认为太擅长进攻性网络攻击,公司没有公开放出,只给大约 40 家机构开了权限。NSA apparently 在其中。
麻烦在于,NSA 的上级体系——美国国防部——几周前才把 Anthropic 定性为“供应链风险”。原因也不复杂:Anthropic 不肯给五角大楼无限制开放模型能力,不愿把 Claude 用于大规模国内监控和自主武器开发。结果就成了今天这个颇有黑色幽默的场面:法院里还在吵它会不会威胁国家安全,情报系统里已经先用上了它的受限模型。
NSA用 Mythos,不只是产品接入
已知信息很集中:
- 产品.Mythos Preview
- 发布时间.2026 年 4 月刚公布
- 定位.面向网络安全任务的前沿模型
- 限制.未公开发布,只开放给约 40 家机构
- NSA 用途.扫描环境中的可利用漏洞
这说明一件事:美国情报和国防系统内部,对 AI 的真实需求比公开姿态更诚实。真到漏洞扫描、攻击面梳理、威胁分析这些具体活上,谁家模型能干,谁就会被拉进来。所谓“供应链风险”并没有阻止使用,至少没阻止 NSA 这一侧的使用。
问题也恰恰在这儿。国防部此前对 Anthropic 的指控,表面是安全,实质更像权限。Anthropic 不肯交出“完全可调用、可定制、可扩展到监控和武器链条”的能力,于是被打上高风险标签;可当 NSA 需要一个能找漏洞的模型时,系统又很务实。天下熙熙,皆为利来。这里的“利”,不是利润,而是部门能力和任务效率。
真正的冲突,是政府想买工具,还是想买主权
我不太买账的一点是,很多人会把这事理解成“美国政府态度软化了”。没那么简单。更准确地说,这是政府内部不同机构对 AI 供应商的要求根本不是一回事。
NSA 要的是能提高网络行动效率的工具。五角大楼里更强势的那部分人,要的却不只是工具,还想要可审计、可调度、可深度嵌入军政体系的控制权。Anthropic 拒绝的是后者,不是前者。差别很大。
这和历史上的军工采购很像。早年政府采购电信、卫星、云计算,也都不是“买来就用”这么简单,而是不断把供应商往深层绑定里拽。今天换成大模型,老剧本没变:谁不肯把接口、能力边界、使用场景都交出来,谁就会突然变成“不安全”。这不是技术争议优先,而是治理权争夺优先。
横向看,Palantir 这类公司更懂这套规则:它们卖的从来不只是软件,而是顺着政府权力结构长出来的系统整合能力。Anthropic 过去更像在给自己保留一条边界线。现在 NSA 先用 Mythos,说明这条线没有守住,但也没有彻底断。它仍在“有限合作”区间,而不是“全面军工化”。
谁会更难受:采购官、承包商,还有想站中间的AI公司
最受影响的不是普通用户,而是三类人。
一类是军方和情报系统里的采购与合规官。他们会更难做。因为同一套联邦体系,嘴上说风险,手上在接入,采购文件和风险审查迟早要互相打脸。
一类是传统网络安全承包商。Mythos 这类模型如果真能把漏洞扫描、环境分析、初步研判做得更快,很多高毛利的人力服务会先被压价。不是立刻替代,但预算会先被重写。
最后是所有试图走“既接政府单、又保留伦理边界”路线的 AI 公司。Anthropic 这次的遭遇已经很说明问题:你可以不公开发布模型,可以强调安全,可以拒绝某些高风险用途,但只要你对权力系统有用,对方迟早会把你拉进来。区别只在于,是合作进入,还是被标签和诉讼逼进去。
接下来真正该看的,不是 NSA 会不会承认,而是两个变量:一,Anthropic 会不会扩大 Mythos 的政府客户名单;二,国防部会不会在法律或采购规则上重新定义“供应链风险”。前者决定它是不是走向军工承包商化,后者决定这场争议到底是安全原则,还是一纸谈判筹码。
卡尔·施密特那句老话虽不必全信,但放在这里很贴切:主权者决定例外状态。今天的例外状态就是,模型被说成危险时照样能进系统;风险叙事一旦碰上任务需求,往往先让路。技术没有那么虚伪,虚伪的是权力对技术的说法。
