一个大模型到底贵在哪里?很多讨论盯着最后一次训练:用了多少卡,跑了多久,账单多大。

Interconnects 5 月 12 日那篇文章有意思的地方,是把账本往前翻了一页。前沿模型真正烧钱的部分,往往不是最后那次训练,而是此前一轮又一轮失败实验。

Ai2 关于 OLMo 3 开发的记录,以及 Epoch AI 对多个前沿实验室公开成本资料的研究,都指向一个相近结论:研发计算可能占到前沿模型总计算成本的约八成。这个数字有误差区间,不能当成行业铁律。

但它足够提醒一件事:判断中国开放模型生态,不能只问“今天调用便不便宜”。更该问的是,开放权重、技术报告和工具经验,能不能让下一批实验室少走弯路。

前沿模型贵在试错,不只贵在训练

过去围绕 DeepSeek V3 的讨论,很容易落到一个问题:训练一个大模型到底花了多少钱。

这个问题当然重要,但它只看到了账单的一段。前沿模型研发里,更难估的是失败实验:数据配方不对,架构选择要改,RL 训练不稳定,基础设施调参返工,评测结果推翻前面的假设。

这些成本不会总是出现在一个漂亮的最终训练数字里。它们更像沉没在研发日志里的暗账。

所以,开放模型的成本优势,不该被简化成“同样一句 prompt,谁更便宜”。低迭代、直接调用的场景,闭源托管方案常常更省事。OpenAI、Anthropic 这类服务商可以用规模化托管摊薄推理成本,也能提供更稳定的接口、限流和运维体验。

真正不同的,是需要改模型的人。

使用场景更现实的选择关键原因
客服、摘要、代码补全等低迭代调用继续用闭源托管,至少不必急迁接入快,运维少,规模化推理成本有优势
企业要做二次训练、私有部署、深度改造评估开放模型能复用权重、技术报告、工具链和社区经验
前沿实验室追赶性能曲线开放生态更有潜在收益多个团队可分摊试错成本,减少重复失败

这对企业采购有一个很直接的影响:如果只是把模型接进业务流程,不需要频繁训练和改架构,没必要因为“开放模型更便宜”就立刻迁移。

但如果团队已经在做私有数据训练、推理成本优化、模型蒸馏或多轮评测,开放模型就不只是替代品。它更像一套可继承的研发起点。

中国开放生态的优势,是把失败经验变成公共资产

Interconnects 文章讨论的中国开放优先生态,核心不是某一个模型赢了,而是多个头部实验室把研发过程的一部分摊开了。

DeepSeek、阿里巴巴 Qwen 等中国团队,普遍开放模型权重,也发布较详尽的技术报告。后来者不必从白纸开始猜数据配方、训练技巧和评测路径。

这有点像开源软件,但不能等同于传统 OSS。

传统开源软件的反馈环更轻。用户可以提交 bug、修文档、补功能,社区维护会慢慢摊薄成本。AI 模型不一样。预训练和大规模后训练的成本,仍主要压在模型开发者身上。普通用户很难靠一次 PR 修掉一次千卡训练失败。

中国开放模型生态目前更像“研发知识的复用网络”。它把技术报告、权重、评测经验、训练基础设施讨论放到更公共的位置。这样一来,一个实验室踩过的坑,可能不会被另一个实验室完整重踩。

闭源实验室也能吸收这些成果。OpenAI、Anthropic、Google DeepMind 不会对开放论文和模型视而不见。

差别在边际收益。如果闭源团队在研发进度上已经领先数月,公开成果带来的帮助可能较小。对追赶者,或者处在同一性能曲线附近的开放实验室,这些资料的价值更直接。

这也是“复利”真正发生的地方:不是每个用户立刻少花钱,而是多个团队在同一条前沿路线上,少做重复的低胜率实验。

开放生态的边界,要看工具和 RL recipe 开到哪一层

开放权重只是第一层。真正决定生态能走多远的,是更底层的训练配方、工具链和工程经验。

现在一个明显瓶颈,是 MoE 模型的大规模 RL 训练还缺少真正开放、可复现的 recipe。很多公开模型能用,但高质量后训练怎么稳定做,仍不是所有团队都能拿到清晰路径。

还有一个现实约束:企业会把开源工具 fork 成内部版本。内部版本跑得更快,适配更深,功能更全。公开工具如果长期吃不到这些改进,就会慢慢变成“入门版”。

这会改变两类团队的动作。

模型公司要决定,哪些训练、评测、部署工具可以重新推回公共层。全留在内部,短期保护效率;开放一部分,才可能换来生态共同维护和更多外部验证。

开源基础设施团队也要调整目标。只服务小模型和入门训练不够了。要进入前沿模型链条,就必须证明自己能承受更大规模、更复杂的训练和推理工作。

短期内,中国公司不太可能收敛到一个统一基础模型。原因并不复杂:前沿模型和硬件、数据、训练框架、工程团队耦合太深。谁都不愿把核心节奏交给单一底座。

接下来真正该看的,不是又多开了几个权重文件,而是三件事:MoE 大规模 RL recipe 有没有更清楚的公开版本;企业内部 fork 的工具改进有没有回流;技术报告能不能继续把失败路径讲细。

只开放结果,复利很浅。连试错过程也能复用,开放生态才有可能把研发成本曲线往下压。