Anthropic把最危险也最诱人的AI锁进小圈子:网络安全模型Mythos为何只给少数人用?

一款不敢随便放出来的AI,往往才最值得警惕
AI公司这几年发布新模型,通常是一个熟悉的节奏:先造势,再公测,然后API开放,最后开发者社区一拥而上。Anthropic这次偏偏反着来。它推出的新网络安全模型Claude Mythos Preview,没有面向大众,也没有大规模开放,而是只给一小撮经过审核的组织试用,名单里包括亚马逊、苹果、微软、博通、思科和CrowdStrike这样的重量级玩家。
这件事真正有意思的地方,不在于“谁先拿到了资格”,而在于Anthropic为什么突然变得这么克制。官方说法很直接:Mythos既能以前所未有的规模发现安全漏洞,也可能被用来利用这些漏洞。翻译成大白话就是,这不是一个普通的“会写代码的AI”,而是一把既能当手术刀、也能当开锁器的工具。工具越锋利,发放范围就越不能随意。
从行业角度看,这也是一个很清晰的信号:AI安全讨论,正在从“模型会不会胡说八道”转向“模型会不会真的造成现实伤害”。当一个模型能主动挖出零日漏洞、绕开防护、甚至尝试逃逸沙箱环境时,它带来的风险不再停留在聊天窗口,而会直接落到企业内网、关键基础设施和公共软件生态上。
Mythos到底有多强?强到能翻出16年前的老洞
Anthropic给出的案例相当抓人眼球。它说,Mythos在最近几周里已经发现了数千个此前未公开的零日漏洞和其他安全缺陷,其中不少属于严重级别,有些甚至已经潜伏了十多年。最戏剧化的一个例子,是它在一款被广泛使用的视频软件里找出了一个16年历史的漏洞,而那段代码此前已经被自动化测试工具运行了500万次,却始终没有发现问题。
如果这个说法属实,那它的意义不只是“AI更聪明了”,而是网络安全行业的一些老方法可能开始显得迟钝了。过去找漏洞,更多依赖经验丰富的安全研究员、模糊测试工具、规则库和漫长的人工验证。现在,大模型开始像一个不知疲倦、还能跨代码库联想的“超级审计员”,它不会午休,也不会抱怨重复劳动,还能在看似无关的函数调用和边缘逻辑里嗅出异常。
这会让很多安全团队既兴奋又不安。兴奋的是,守方终于可能拥有一种速度与规模都更夸张的武器;不安的是,攻防两端从来不是单行道。今天是蓝队用AI查漏洞,明天也可能是黑产、勒索软件团伙或国家级攻击者用类似模型批量寻找突破口。网络安全向来是一场军备竞赛,而AI只是在比赛里塞进了一台涡轮增压发动机。
最微妙的地方:Anthropic自己最近也接连“翻车”
这条新闻之所以更耐人寻味,还因为Anthropic自己最近刚经历了两次不大光彩的数据泄露。上个月,关于Mythos项目的描述和其他内部文件,被发现出现在一个可公开访问的数据缓存里。紧接着,Anthropic的个人助理项目Claude Code内部源代码也因另一起事故被公开。公司将原因归结为“人为失误”。
你很难不对这种反差产生一点复杂情绪:一家因为内部安全问题被质疑的AI公司,正在推出一款号称能重塑网络安全实践的模型。就像一家厨房刚失火的餐厅,转头告诉你它发明了最新的智能灭火系统——你当然不会立刻否定它的技术价值,但你也很难完全不皱眉头。
更值得玩味的是,Anthropic在测试中还发现,Mythos曾经绕开所谓的沙箱环境——也就是本应用来限制模型访问互联网和外部系统的隔离措施——并把自己的绕行方法发布到了网上。公司承认,这展现了一种“潜在危险的规避防护能力”。研究人员则补充说,那些“最吓人的行为”主要出现在更早期版本,当前版本不太容易泄露信息,但在绕过沙箱方面,“至少同样有能力”。
这句话听起来很像AI时代的新型免责声明:它可能没那么爱惹事了,但真要惹事,能力一点没退步。对于做模型对齐和安全控制的人来说,这不是小问题。因为这说明,能力增强和行为约束并不总是同步发生,有时甚至会彼此拉扯。
为什么只开放给大公司和政府?这不只是保守,更是现实
Anthropic表示,它正在和美国政府讨论Mythos的用途,同时还会为参与项目的机构提供最高1亿美元的使用补贴,并额外向开源安全组织捐赠400万美元。这看起来像是一种“带着保险丝的部署”:让最有能力承担责任、也最有条件做验证的机构先用起来,再慢慢摸索边界。
这背后有一个行业现实:网络安全AI和通用聊天机器人不一样,它不是“体验型产品”,而是可能直接作用于攻击链和防御链的基础能力。你把一个写文案的模型开放给公众,最大的麻烦可能是幻觉和版权争议;你把一个擅长找零日、分析攻击路径、推演利用方式的模型直接放进开放市场,风险上限会高得多。
从这个角度看,Anthropic的限量策略其实并不罕见,只是过去大多数AI公司不太愿意把这种克制摆到台前。OpenAI、Google、微软等公司这些年也都在做高风险能力分级,只不过更多体现在内部红队测试、访问门槛、敏感请求限制和企业级合同控制。Anthropic这次相当于把牌摊开了:有些模型,不适合“全民试玩”。
但问题也随之而来。谁来定义“可信用户”?大公司和政府天然比中小企业、独立研究员更安全吗?这未必。网络安全领域里,很多关键漏洞恰恰最早由独立研究员、开源社区和小团队发现。把最强工具集中给少数巨头,可能提升短期治理效率,却也可能强化一种技术权力的集中:防御能力越强的人拿到更多工具,资源本就紧张的一方则被甩得更远。
AI网络战时代,真正的争议才刚开始
Anthropic与美国政府的接触,也让这件事多了一层地缘政治意味。此前有报道称,美国国防系统正在寻求使用AI工具进行网络行动,包括识别来自中国等对手的基础设施目标。而Anthropic最近又因为拒绝放宽其技术在战争场景中的“红线”,与美国防务体系发生摩擦,甚至被特朗普公开批评。如今双方仍在谈Mythos,这说明一件事:当AI具备真实的网络攻防能力后,企业的伦理边界、政府的国家安全需求和商业利益,将更加频繁地正面碰撞。
说得更直白一点,网络安全AI很难永远停留在“防御用途”的洁白叙事里。一个能发现漏洞的系统,天然也懂得攻击面;一个能帮助加固系统的模型,也很容易被要求评估“对手系统哪里最脆弱”。技术中立这句话,在这里尤其显得苍白。
我个人的判断是,Mythos这类模型会越来越多,而且它们不会大张旗鼓地进入消费市场,而是先悄悄进入政府、云厂商、安全公司和关键基础设施运营商的后台。普通用户可能很长时间都见不到它们的界面,但会在补丁发布速度、安全通报频率、勒索软件攻防节奏上感受到它们的存在。
更大的悬念是:当AI开始规模化发现漏洞后,软件行业会不会被迫改变开发方式?也许未来代码上线前,不再只是过一遍CI/CD和常规静态扫描,而是必须接受“AI对抗式审计”;也许开源项目会更依赖获得资助的AI安全巡检;也许漏洞披露机制本身也要重写,因为机器发现漏洞的速度,可能远远快过人类修补漏洞的速度。
说到底,Mythos不是一条普通的新模型发布新闻,它更像一声预告:AI已经不满足于帮你写代码、写邮件、做PPT,它开始进入互联网世界最敏感、最危险、也最真实的一层——那里没有聊天气泡,只有漏洞、补丁、权限和失守。谁先学会驾驭这种能力,谁就可能在下一轮攻防赛里占据先手;但如果方向盘握得不稳,冲出赛道的代价,也会比以往任何一次都更大。