一边打官司,一边让华尔街试用:Anthropic 的 Mythos 把 AI、金融与政治拧成了一团

人工智能 2026年4月13日
一边打官司,一边让华尔街试用:Anthropic 的 Mythos 把 AI、金融与政治拧成了一团
美国政府高层据称正在鼓励华尔街大行测试 Anthropic 新模型 Mythos,这让一条原本属于 AI 安全领域的新闻,突然带上了浓烈的政治和金融色彩。更耐人寻味的是,Anthropic 此前刚因“供应链风险”标签与特朗普政府对簿公堂,如今却又被同一套权力系统推向银行业试验场,这背后折射出的不是技术进步本身,而是 AI 正在成为新的制度级基础设施。

一场很不寻常的“撮合”

华尔街和华盛顿向来关系暧昧,但这次的剧情还是有点出人意料。根据彭博社报道,美国财政部长斯科特·贝森特与美联储主席杰罗姆·鲍威尔本周召集多家银行高管开会,并在会上鼓励他们测试 Anthropic 新近发布的 AI 模型 Mythos,用来发现系统漏洞。

如果这件事属实,那么它就不是普通意义上的“企业采购 AI 工具”,而更像是一场由政策力量推动的技术预演。最初拿到 Mythos 访问资格的公开合作方里,摩根大通是唯一一家银行,但现在高盛、花旗、美银和摩根士丹利据说也都在测试。换句话说,华尔街最核心的那一圈金融机构,正在被推向同一张 AI 试卷前。

这条消息之所以抓人,不只是因为“银行开始用更强的 AI 找漏洞”,而是因为它透露出一个信号:AI 在金融领域的角色,正在从客服、投研助手、文档摘要这些相对温和的场景,迅速转向更敏感、更靠近基础设施的安全层。银行不是普通企业,它们运营的是支付网络、清算系统、风控模型和海量客户数据。把一个据称“过于擅长发现漏洞”的模型引进来,本身就像请来一个天才白帽,也像把一把更锋利的手术刀递进手术室——救人和伤人,可能只差一个边界定义。

Mythos 为什么让人又兴奋又发毛

Anthropic 这周刚刚发布 Mythos 预览版,并且刻意限制访问范围。官方给出的理由很直接:虽然它并非专门针对网络安全训练,但在发现安全漏洞方面表现过于强,必须谨慎投放。这个说法一出来,业内立刻分成两派。

一派觉得这代表 AI 安全能力迈过了新的门槛。过去我们熟悉的大模型,擅长写代码、总结报告、聊天答疑,但真正让企业掏大钱的,往往不是“会说话”,而是“能干活”。如果 Mythos 真能高效识别金融系统、内部工具链甚至遗留代码中的脆弱点,那它的商业价值确实非常现实。别忘了,银行最怕的不是模型幻觉,而是某个未被发现的小漏洞,最终引发一场真正的安全事故。

另一派则怀疑,Anthropic 这套“限量开放”的打法里,营销成分并不少。说白了,把产品包装成“太强了所以不能随便给人用”,是硅谷很熟悉的一种叙事。它既能制造稀缺感,又能提升企业客户的兴趣,还能顺手占据道德高地:我们不是故弄玄虚,我们是在保护互联网。这个逻辑并不新鲜,OpenAI、Google、xAI 乃至一批安全创业公司,过去都在不同程度上用过类似的话术。

但就算其中有公关修辞,问题依然成立:今天的大模型,尤其是具备编程和系统分析能力的模型,确实越来越接近“双用途工具”。它能帮安全团队找洞,也可能帮攻击者缩短试错时间;它能加速补丁修复,也能放大脆弱基础设施的暴露面。这种两面性,正是 Mythos 让金融监管者神经紧绷的根源。

最讽刺的部分:Anthropic 还在和政府打官司

这件事最有戏剧性的地方,不在银行,而在政府本身。

Anthropic 目前正与特朗普政府陷入法律争端。此前,美国国防部将 Anthropic 列为“供应链风险”,而公司之所以走上诉讼路径,据报道与双方在政府如何使用其 AI 模型上的谈判破裂有关。Anthropic 希望限制政府对模型的某些用途,结果换来一个敏感且杀伤力极强的官方标签。

于是就出现了一个很有美国式黑色幽默的画面:一边是五角大楼说你有风险,一边是财政系统和央行层面的官员据称在推动银行测试你的模型。政府仿佛不是一个统一的整体,而是一栋意见不合、走廊很长的大楼。国防安全逻辑、金融稳定逻辑、产业竞争逻辑,在这里彼此打架。

这也说明,AI 公司如今面对的,已经不是单纯的“监管更严”这么简单,而是多头权力的不同口径。对国防部门来说,一个不可完全控制、对用途设限的模型供应商,可能是不稳定因素;但对金融监管者来说,一个能提前挖出系统隐患的模型,又可能是提高韧性的工具。站在不同机构的桌子边,Anthropic 可能既是问题,也是解法。

银行业为什么会认真对待这件事

银行对新技术通常不算激进,尤其是牵涉核心系统的技术。它们愿意试 Mythos,恰恰说明金融业对 AI 的态度已经进入新阶段:从“试试看能不能降本增效”,走向“不得不看,因为别人也在看”。

金融机构的系统复杂得惊人。很多核心交易与后台程序并不是过去三年新写的,而是十几年前、甚至更早的遗留系统,层层补丁、代代维护。人类工程师要在这样的代码迷宫里找安全漏洞,成本高、周期长,还容易漏。一个足够强的模型如果能在海量代码、配置文件、调用链和权限结构中快速标出高风险点,银行当然会心动。

更关键的是,金融安全这件事带有明显的“集体脆弱性”。一家银行的漏洞,不一定只是一家银行的问题。大型机构之间通过支付、结算、托管、清算和衍生品网络紧密连接,任何局部故障都可能外溢。这也是为什么官员会出面鼓励测试——在他们眼里,这可能不是某家公司买一套软件,而是在做金融系统级别的压力预演。

英国《金融时报》也提到,英国金融监管机构正在讨论 Mythos 带来的风险。这说明监管者关注的已经不只是“银行会不会用 AI”,而是“当所有关键机构开始同时引入同类强模型,系统性风险会不会被重新定义”。如果大家都依赖一类工具发现漏洞,那谁来检查这类工具本身的误判、偏差与滥用?如果攻击者也在使用相近能力的模型,银行的防线会不会被迫进入一场更高成本、更高频率的 AI 军备竞赛?

这不只是 Anthropic 的新闻,而是 AI 正在接管关键行业的方法论

如果把镜头拉远,Mythos 的故事其实是 2026 年 AI 行业的一个缩影。过去两年,生成式 AI 最大的想象空间来自个人效率和内容生产;到了现在,真正值钱、也最危险的战场,开始转向高度监管、高度复杂、又高度保守的行业——金融、国防、医疗、能源、政府系统。

这些行业有一个共同点:它们不像社交媒体那样允许“先上线再修补”。一个聊天机器人答错了,最多闹笑话;一个银行安全模型判断失误,代价可能是数亿美元损失,甚至触发更广泛的信任危机。所以 Mythos 之类模型的出现,某种程度上是在逼整个行业回答一个问题:我们到底愿不愿意把“发现风险”的能力,交给一个我们同样还没完全理解的系统?

OpenAI、Google、微软和 Anthropic 都在抢占企业级 AI 的高地,但路线各不相同。OpenAI更强调通用平台化,微软擅长把模型嵌进企业软件栈,Google依赖基础设施与生态,Anthropic则在努力塑造“更安全、更适合高风险场景”的品牌形象。Mythos 如果在银行业试用顺利,Anthropic 将获得一个极具象征意义的样板市场:不是会写邮件的 AI,而是能摸进系统深处、替机构找雷的 AI。

但我更关心的是另一面。今天政府鼓励银行试用某个模型,明天会不会演变成一种事实上的标准背书?当监管者、政策制定者和头部金融机构围绕少数模型形成共识,小公司还有没有机会?技术安全会不会在无形中变成市场集中度更高的生意?这些问题现在没人愿意大声讲,因为大家都在追逐“AI 提升韧性”的漂亮叙事,可真正长期的风险,往往就藏在这些看似合理的联盟里。

Anthropic、特朗普政府、华尔街和监管者,正在共同演一出很典型的时代剧:彼此不完全信任,却又都不愿错过 AI 带来的新权力。戏刚开场,台下已经很安静了,因为所有人都知道,这不是一个新模型发布那么简单,而是关键基础设施如何被 AI 重新定义的前奏。

Summary: 我对这件事的判断是:Mythos 未必会成为银行业的“标准工具”,但它大概率会成为一个分水岭。未来一年,金融机构会更积极地把强模型引入安全、合规和核心系统审查,而监管也会从围观转向深度介入。真正值得警惕的不是某个模型太强,而是当政府、金融巨头和少数 AI 公司形成默契后,关键行业可能在不知不觉中把安全能力押注到极少数供应商身上。这会提高效率,也会制造新的集中风险。
AnthropicMythosAI安全金融机构华尔街漏洞发现美国政府银行安全测试斯科特·贝森特杰罗姆·鲍威尔