Sam Altman这次开火,表面上是在批Anthropic,实质上是在戳AI行业一块越来越值钱的招牌:安全。Anthropic本月早些时候发布网络安全模型Mythos,只向少量企业客户开放,并称担心它被网络犯罪分子武器化,因此不公开发布。Altman随后在《Core Memory》播客里把这套说法概括为“fear-based marketing”,还给了个很直白的比喻:先造炸弹,再卖防空洞。

这事值得看,不是因为嘴仗好看,而是因为“安全叙事”正在决定谁能买、谁能用、谁能碰。天下熙熙,皆为利来。安全当然是真问题,但到了大模型公司手里,它也越来越像一张商业通行证。

Mythos到底引发了什么争议

先把已知事实放稳。

Anthropic本月早些时候发布了Mythos预览版。公开信息显示,它没有全面开放,只给少量企业客户使用。Anthropic给出的理由是担心模型被网络犯罪分子滥用,所以不对公众发布。

Altman在播客里批的,就是这个包装方式。他的意思很明确:你可以说产品谨慎发布,但把“危险到不能公开”讲成卖点,本身就在制造稀缺感,也在抬高产品身价。

这里要踩住一个边界:目前没有公开证据能证明Mythos已经具备什么灾难级攻击能力。现阶段能看到的,主要还是Anthropic自己的风险说法,以及外界对这套说法是否被过度包装的质疑。

争议点目前已知事实现在还看不清的地方
发布方式Mythos仅向少量企业客户开放具体筛选标准、覆盖范围
不公开理由Anthropic称担心被网络犯罪分子武器化风险评估依据公开到什么程度
Altman的批评他说这是“fear-based marketing”OpenAI自己是否会完全避免类似话术

所以,争议不在于Mythos已经被证实“太强太危险”。争议在于:一家AI公司能不能在证据并不充分公开的情况下,同时用“风险很高”解释限制开放,又把这种限制变成产品定位的一部分。

对关心AI产业叙事的人,这里最该盯的是定义权。谁来定义危险,谁就更接近定义市场秩序。对关心企业采购的人,这意味着评估标准不能只听供应商自己说“太敏感”,还得追问测试依据、访问条件和责任边界。

Altman说中了问题,但他自己也不干净

TechCrunch原文提醒得很关键:把AI讲得很危险、很接近失控,并不是Anthropic独有的套路。Altman本人过去也多次放大AI风险,推动“AI可能威胁人类”的公共讨论。

所以这事不能写成“Altman大战恐惧营销”。他不是突然变成了反风险叙事的原则派。他更像是在说:你不能用我熟悉的武器,来抢我的地盘。

这就是AI行业现在最不体面的地方。大家嘴上都讲责任,手上争的是风险定义权。福柯那句“知识即权力”,放到这里几乎可以改写成:谁垄断风险解释,谁就更容易垄断访问资格。

这不是说Anthropic不该谨慎。高风险能力本来就该管。问题在于,如果“谨慎”只表现为少量开放、理由模糊、标准不透明,那它就很容易从风险控制滑向市场控制。两者不是一回事。

历史上这种戏码并不新。军工、核能、加密出口,安全一直都是真议题,也一直都和权力分配绑在一起。今天的AI并不完全一样,但那条旧逻辑没变:越是被定义成高风险,越容易被少数机构接管解释权和交易权。

真正受影响的是采购、准入和监管判断

这场争议最直接影响的,不是吃瓜群众,而是两类人:企业采购方,以及盯着AI治理的政策制定者和行业观察者。

对企业采购方,影响很现实。你买的可能不再只是模型能力,而是一套“被许可的能力”。产品是否好用,未必先讲清。先讲清的,可能是它多敏感、多受控、多适合大客户环境。

这会带来几个具体动作:

  • 采购周期可能拉长,因为法务、安全和合规团队会要求更多风险说明
  • 部分团队会延后接入,先等更多评估材料,而不是先签试点
  • 预算讨论会从“性能值不值”转向“这家供应商是否更稳、更可控”

对政策制定者和长期看平台权力的人,风险在另一头。如果监管只听见“能力太危险,所以只能给少数大公司托管”,那最后审的就不再是能力证据,而是供应商身份。监管会被带偏,变成给少数玩家发牌照。

对开发者和中小团队,这种气氛也有后果。不是说他们一定被排除,而是先进能力会越来越先以“受限访问”的形式出现。门槛提高后,小团队要么转向开源替代,要么继续依附大平台接口。前者要承担性能和稳定性取舍,后者要接受访问和价格上的被动。

如果你是企业安全负责人,这类新闻最该问三件事:模型到底能做什么,限制开放的标准是什么,供应商是否愿意给出可核查的评估依据。如果你是关注平台权力的读者,更该问的是:安全叙事是在降低风险,还是也在制造新的集中。

接下来要看三件更硬的事,而不是继续看CEO互呛。

接下来该看什么为什么重要
Anthropic会不会公开更多Mythos评估依据这决定“高风险”到底有多可验证
OpenAI在类似高风险能力上会不会使用相近话术这能检验Altman的批评是不是只对别人有效
监管关注的是能力证据还是供应商背书这决定安全治理会不会变成准入壁垒

我更在意的是最后一项。要是监管和市场都接受“危险,所以只能由少数公司掌握”这套逻辑,AI就会越来越像受控牌照生意。名义上是审慎,结果却可能是集中。