DeepSeek 放出了 V4 Flash 和 V4 Pro 两个预览版文本大模型。两款都采用 MoE 架构,支持 100 万 token 上下文,主打低推理成本,以及推理、代码能力。
这事不能写成“DeepSeek 已全面超过 OpenAI 或 Google”。目前关键成绩来自 DeepSeek 自己披露,仍需第三方复现。更准确的判断是:低价开源权重模型正在压缩闭源前沿模型最舒服的一层利润——能力溢价。
V4 的硬信息:参数够大,价格够低,但只支持文本
DeepSeek 这次给出的参数很清楚。V4 Pro 是 1.6 万亿总参数、490 亿激活参数;V4 Flash 是 2840 亿总参数、130 亿激活参数。
两者都是 MoE。也就是推理时只激活部分参数。好处很直接:模型可以做大,调用成本不必按全量参数硬扛。
| 项目 | V4 Flash | V4 Pro | 读者该怎么看 |
|---|---|---|---|
| 总参数 | 2840 亿 | 1.6 万亿 | Pro 体量很大,但参数规模不等于真实体验 |
| 激活参数 | 130 亿 | 490 亿 | MoE 有助于压低推理成本 |
| 上下文 | 100 万 token | 100 万 token | 长代码库、合同、报告更容易一次塞入 |
| 价格 | 输入/输出约 0.14/0.28 美元每百万 token | 输入/输出约 0.145/3.48 美元每百万 token | 对高调用量团队有吸引力 |
| 模态 | 文本 | 文本 | 不能和多模态 GPT、Gemini、Claude 完全等价比较 |
DeepSeek 称,V4 Pro Max 在推理基准上领先开源同行,并在部分任务超过 GPT-5.2、Gemini 3.0 Pro。代码竞赛表现则被称为可比 GPT-5.4。
限制也写在同一张纸上。知识测试仍落后 GPT-5.4 和 Gemini 3.1 Pro。DeepSeek 自称大约落后前沿模型 3 到 6 个月。
这句话比榜单更有用。它说明 V4 不是全能冠军,更像一个价格很凶的追赶者:部分任务够强,成本低到足以改变采购表。
受影响最大的是开发团队和企业采购
对开发团队来说,V4 Flash 最先冲击的不是“最难的 AGI 问题”,而是日常账单。
客服摘要、代码审查、长文档分析、内部知识库问答,这些任务通常不需要每次都调用最贵模型。只要效果接近、延迟可控、失败率可接受,团队就会开始分层使用模型。
最现实的动作会是两个:
- 高调用量业务先做 A/B 测试,把部分文本任务迁到 V4 Flash 或 V4 Pro。
- 企业采购延后签长期大额闭源套餐,等第三方评测和 API 稳定性出来再谈价。
这就是 V4 的刀口。它不需要在所有维度赢 OpenAI 或 Google。它只要让一部分任务从“必须买最贵”变成“便宜模型也够用”,闭源模型的报价逻辑就会被迫重算。
铁路刚出现时,也不是一夜取代所有运输方式。它先吃掉最适合标准化、规模化的线路。模型市场也像这样:通用王者还在,但高频、文本、可批处理的任务会先被低成本路线切走。
历史类比不能拉满。AI 模型不是铁路,迁移成本、数据安全、工具链依赖都更复杂。但重复的是同一种商业压力:当低价供给足够好,高价供给就必须解释自己到底贵在哪里。
短板不小:知识、多模态、信任都还没结算
V4 最大的边界是文本-only。今天的闭源前沿模型早就不只是在聊天框里答题。它们要看图、听音频、处理视频、接工作流、进办公套件。
所以,拿 V4 和多模态闭源模型做一对一全面对照,会误导读者。它更适合先看文本任务:推理、代码、长文档、结构化分析。
知识测试落后也不是小问题。代码和数学可以靠推理补分,事实问答和专业咨询不行。金融、医疗、法律场景里,便宜不能抵消错误成本。
还有合规阴影。美国方面曾指控中国 AI 实验室通过大量代理账号窃取美国 AI 实验室 IP;DeepSeek 也曾被 Anthropic、OpenAI 指控进行模型蒸馏。这些都是指控,不是定案。
但企业采购不会只看法律结论。跨国公司会问三件事:数据能不能审计,模型来源能不能解释,供应链风险能不能写进合规文件。答不上来,再低的 token 价格也可能进不了核心系统。
“天下熙熙,皆为利来。”放在模型市场上很贴切。客户要降本,平台要守毛利,监管要追来源。V4 把这三件事撞到了一起。
接下来只看四个变量:
- 第三方评测能否复现 DeepSeek 的推理和代码成绩。
- API 稳定性、延迟和高峰吞吐能否扛住企业负载。
- 开源权重、本地部署和协议条件能否满足真实合规需求。
- 多模态缺口会不会限制它进入更高价值的产品场景。
如果前两项成立,开发团队会先动。若第三项也站住,企业采购会拿它压价。多模态短板不补,V4 就更像文本任务里的强势低价选项,而不是闭源前沿模型的完整替代品。
