一边打官司一边做简报:Anthropic把“最危险模型”先送进白宫,AI安全开始进入硬碰硬时代

Anthropic 又把硅谷那种熟悉的矛盾感,演得很完整。
这家公司一边在法庭上和美国政府交锋,一边又把自己最敏感、最不敢公开发布的新模型 Mythos,送到特朗普政府面前做简报。Anthropic 联合创始人 Jack Clark 本周在 Semafor World Economy 峰会上亲口确认:是的,公司确实和政府谈了 Mythos,而且之后的新模型也会继续谈。
听起来像一出政治惊悚片:一家 AI 公司刚刚因为被美国国防部贴上“供应链风险”标签而提起诉讼,转头又告诉外界,涉及国家安全的模型,政府必须知道。这不是前后矛盾,而是当下 AI 行业最真实的处境——你可以不喜欢政府,但你很难绕开政府;你可以担心军方滥用技术,但你也不能假装这些技术不会影响国家安全。
Mythos 为什么没公开?因为它强到让 Anthropic 自己都害怕
先说 Mythos 本身。按照此前披露的信息,这是一款被 Anthropic 认为“危险到不适合公开发布”的模型。它最受关注的地方,不是写诗、做表格、陪人聊天,而是强悍的网络安全能力。说白了,它可能不仅能帮你找系统漏洞,也可能让恶意攻击者更高效地发动攻击。
这类模型的尴尬在于,它们越有价值,就越有双重用途。网络安全行业一直有个老问题:一把更锋利的刀,既能让外科医生做更精密的手术,也能让坏人造成更大破坏。AI 把这件事放大了。过去需要一个经验丰富的红队工程师、渗透测试专家才能完成的任务,未来也许只要一个提示词、一点耐心,再加上一个足够强的模型。
Anthropic 选择不向公众发布 Mythos,本身就是一个信号。过去两年,AI 公司最爱讲的故事是“更强、更大、更通用”;现在,头部公司开始公开承认,有些模型不是不能做出来,而是做出来以后不敢轻易放出去。这说明行业已经从“追参数、抢性能”的狂奔,进入到“能力是否该扩散”的审慎阶段。
OpenAI、Google DeepMind、Anthropic 这几家虽然路线不同,但都越来越频繁地谈“前沿模型评估”“危险能力门槛”“部署前测试”。Mythos 更像是这种思路的一次极端体现:如果模型在网络攻防上的能力越过了某条线,公开发布就不再是商业决定,而是安全决定。
为什么一边起诉五角大楼,一边还要向政府汇报?
事情的戏剧性,来自 Anthropic 和美国政府的关系并不融洽。
今年 3 月,Anthropic 起诉特朗普政府治下的美国国防部,原因是后者将其列为“供应链风险”。更早之前,Anthropic 与五角大楼在 AI 使用边界上发生过冲突,争议点很尖锐:军方是否应该获得不受限制的模型访问权,用于包括大规模监控美国公民、全自主武器在内的场景。最终,这份合作没有落到 Anthropic 手里,而是被 OpenAI 拿下。
按常理看,官司打到这个份上,双方应该已经没什么好聊的了。但 Jack Clark 在公开场合的表述相当克制,甚至可以说相当现实。他把这场风波淡化为“狭义的合同争议”,同时反复强调 Anthropic 关心国家安全,政府必须了解这些新技术。
这不是漂亮话,而是一种越来越普遍的行业共识:当前最先进的 AI 模型,已经不再只是互联网产品,而是准基础设施。它们可能影响金融系统、关键网络、舆论空间、军事决策,甚至外交谈判。到了这个级别,企业再怎么强调自己是私人公司,也无法像做一款照片滤镜 App 那样“先发了再说”。
从这个角度看,Anthropic 的姿态并不奇怪。它反对的是“无限制军用访问”,不是反对一切政府沟通;它警惕的是技术滥用,不是拒绝国家层面的风险协调。这种“边合作边防御”的关系,未来大概率会成为 AI 巨头和政府之间的新常态。
真正值得警惕的,不是 Mythos 本身,而是政府和大公司正在形成新的技术同盟
这则新闻还有一个容易被忽略、但更值得琢磨的细节:此前已有报道称,特朗普政府官员在鼓励华尔街大银行测试 Mythos,包括摩根大通、高盛、花旗、美银和摩根士丹利。
这就有意思了。一个因为过于危险而不向公众开放的模型,却先进入政府视野,再被推动到金融巨头面前测试。这种流转路径说明,前沿 AI 的扩散次序正在变化:不是“先面向消费者、后进入机构”,而是“先国家安全、再关键行业、最后才考虑公众”。
如果这一趋势延续,未来最强的 AI 能力可能不会第一时间出现在普通人的手机 App 里,而会优先掌握在政府、金融机构、国防体系、大型云厂商和少数企业客户手中。对这些机构来说,这当然是效率与竞争力的升级;但对社会整体而言,也意味着技术权力会进一步向少数组织集中。
这恰恰是 AI 时代最微妙的矛盾之一。我们一方面希望危险能力别被随便扩散,另一方面又必须追问:当“安全”成为理由,谁有资格先用这些系统?谁来监督他们怎么用?如果普通公众被排除在外,而政府与头部企业先建立起事实上的技术同盟,那么所谓的“安全治理”,会不会慢慢滑向“能力垄断”?
这不是危言耸听。核技术、密码学、高端芯片、卫星遥感,历史上都出现过类似轨迹:一项足以改变力量平衡的技术,最先进入的往往不是消费市场,而是国家机器和少数巨头的控制半径。AI 正在沿着相似的路走,只不过速度快得多,影响范围也广得多。
Jack Clark 谈就业和大学专业:比起学什么,更重要的是会不会提问
采访里还有另一段很有现实感的内容:AI 会不会把白领工作打得七零八落?
Anthropic CEO Dario Amodei 此前多次发出强烈警告,认为 AI 进步可能把失业率推向大萧条时代的水平。Clark 的口风相对温和一些。他的解释是,Amodei 的预测建立在一个前提上——AI 的能力会比大多数人想象得更快、更猛地跃升。而就 Anthropic 目前观察到的数据,至少现在还只是看到“某些行业中,应届毕业生就业出现一些潜在疲软”。
这段分歧很有意思。它反映出 AI 公司内部其实也并非铁板一块。有人更像预警器,不断拉响警报;也有人像政策分析师,强调眼下数据还没有坏到那个地步。作为记者,我反而觉得这种不一致是健康的。最怕的是所有高管口径统一、对未来过度笃定。AI 发展太快,任何人现在说“我已经知道三年后会怎样”,都多少有点装。
至于大学生该学什么,Clark 的回答没有给出“赶紧去学计算机”这种标准答案。他强调的是跨学科综合能力,以及分析和提问的能力。这个判断我基本认同。AI 越像一个随叫随到的“通才助手”,人类的优势就越不在于背了多少知识点,而在于能否提出好问题,能否把不同领域的洞见撞出火花。
说得更直白一点,以后最不容易被替代的人,未必是单点技能最熟练的人,而可能是那个知道应该问什么、知道怎么判断答案靠不靠谱、知道怎么把技术、商业、法律和人性拼到一起的人。AI 负责给出一百个可能性,人负责决定哪一个值得做、哪一个不能做。
AI 安全已经不只是实验室议题,而是政治议题
Anthropic 这次对 Mythos 的处理方式,背后其实传递了一个更大的变化:AI 安全不再只是论文、基准测试和模型卡片上的话题,它已经变成明确的政治议题。
当一个模型因为网络安全能力太强而不公开发布,当公司必须向政府做简报,当军方、银行和监管力量都开始围绕同一个模型展开动作,这就说明 AI 的“前沿能力”已经开始直接触碰国家权力的边界。谁来定义危险?谁来决定可部署范围?谁来审查、谁来免责、谁来为后果负责?这些问题都不是靠一家公司的博客文章能解决的。
而且,美国的选择往往会外溢。只要华盛顿把前沿 AI 视为国家安全资产,欧洲会更强调监管,中国会更强调体系化治理,全球科技公司也会更快走向“分层开放”:普通用户用一个版本,大客户用一个版本,政府再用另一个版本。表面上看是产品分级,实质上是技术权力的重新分配。
我对 Anthropic 的这次表态有一点认可,也有一点不安。认可的是,它至少没有装作“我们只是做模型的,别把国家安全扯进来”;不安的是,一旦前沿 AI 与政府深度绑定,行业透明度可能进一步下降,公众只会知道“有个很强、很危险的模型存在”,却无法知道它究竟强到什么程度、被谁在什么边界内使用。
技术史反复证明,真正改变世界的,不只是技术能力本身,而是能力如何被分配、被约束、被叙述。Mythos 也许只是一个模型名字,但它折射出的,是 AI 时代正在加速成形的新秩序:实验室、资本、军方、金融系统,开始围绕同一套能力重新排位、重新结盟。