OpenAI 给 Codex 算了一笔更细的账:从“按条收费”到“按 Token 计费”,开发者该紧张还是松口气?

商业 2026年4月6日
OpenAI 给 Codex 算了一笔更细的账:从“按条收费”到“按 Token 计费”,开发者该紧张还是松口气?
OpenAI 正在把 Codex 的计费方式从“每条消息大约多少积分”改成更底层的 Token 计量,这看似只是价格表更新,实则是 AI 编程工具走向企业化、精细化运营的一步。对重度用户来说,账单会更透明,但也更像云计算:你终于知道钱花在哪儿了,同时也更难假装自己没超支。

OpenAI 最近更新了 Codex 的 rate card,也就是这项 AI 编程服务的积分价格表。表面看,这只是帮助中心里一篇略显枯燥的文档更新;但如果你最近正把 AI 用进开发流程——写代码、跑云端任务、做 Code Review,甚至让模型自动化处理一串工程任务——这次变化其实很有信号意义。

以前,Codex 更像一家餐馆给你一个“人均消费”参考:本地任务一条消息大概几积分,云任务一条消息大概几积分,Code Review 一次 pull request 大概几积分。这个方法朴素、好懂,也适合产品早期推广。现在 OpenAI 开始把账单拆开了:输入 Token、缓存输入 Token、输出 Token,各自单独计费。换句话说,它不再告诉你“这一顿大概多少钱”,而是把菜单、克数和酒水单都摆上来了。

这件事之所以重要,不只是因为价格表变复杂了,而是因为它透露出一个行业趋势:AI 编程工具正在从“神奇演示”进入“成本管理”时代。到了今天,企业采购 AI,不只看模型能不能写出一段漂亮代码,更看它到底烧掉多少预算、能不能被财务和工程团队一起管起来。

OpenAI 为什么要把账算得这么细

新价格体系的核心是 Token-based pricing,也就是按 Token 类型计费。OpenAI 给不同模型列出了每 100 万输入 Token、缓存输入 Token 和输出 Token分别对应多少积分。比如 GPT-5.4 的价格是每百万输入 62.5 积分、缓存输入 6.25 积分、输出 375 积分;GPT-5.4-Mini 则明显便宜不少。代码审查默认使用 GPT-5.3-Codex,Fast mode 还会直接把积分消耗翻倍。

这套规则背后的逻辑很“基础设施化”。在 API 世界里,按 Token 收费早就是常态;但在 ChatGPT 一类产品里,很多用户此前接触的是“每月订阅 + 模糊额度”的体验。OpenAI 现在做的,其实是把这两套世界对齐:前端还是积分,底层则尽量映射真实推理消耗。这样一来,企业客户终于可以更清楚地知道,到底是超长上下文拖高成本,还是模型吐出了太多输出,抑或缓存命中率太低。

这是一种非常云服务化的思路。你可以把它类比成早年云计算从“包月服务器”逐步走向“按 CPU、存储、带宽拆分计费”的过程。最初用户会嫌麻烦,但规模一旦上来,精细计量反而是必需品。AI 编程助手也是一样:当它只是程序员的玩具时,粗略估算够用;当它开始进团队预算、进采购合同、进内部审计,模糊价格就不够了。

新价格更透明,但不一定更便宜

OpenAI 在 FAQ 里说得很直白:改成新费率后,有些用户的积分消耗会更高,有些则可能更低,取决于工作负载结构。这个表述很诚实,也说明它不是一次简单的“统一降价”或“隐形涨价”,而是一次更接近真实资源消耗的重算。

对开发者来说,最敏感的一点在于输出 Token 通常比输入贵得多。以 GPT-5.4 为例,输出 Token 的积分成本远高于输入。这意味着什么?意味着那些“让模型长篇大论解释代码”“生成大段补丁说明”“反复 reasoning 后给出冗长回复”的任务,可能会比你想象中更烧积分。相反,如果你的工作流高度结构化、上下文可缓存、输出短而直接,成本就可能比旧的“按条估算”方式更划算。

这里有个很现实的场景:同样是让 Codex 修一个 bug,一位开发者可能只给出最小上下文,要求返回精准 diff;另一位则会把整个仓库背景、历史讨论、规范文档统统塞进去,再要求“顺便解释一下为什么这样改”。两人得到的帮助可能都不错,但账单很可能不是一个量级。AI 时代的新习惯,恐怕不只是“提好问题”,还得学会“提省钱的问题”。

更微妙的是 Fast mode。OpenAI 明说,快速模式会消耗 2 倍积分。这几乎就是在告诉团队管理者:速度不是免费的。你当然可以要求更快的响应,但那会直接体现在成本曲线上。对于追求效率的工程团队,这会形成一个有意思的平衡题——到底是让每个人都开高速通道,还是只给高优先级任务使用?这已经不是技术选型问题,而是运营策略问题了。

两套价格并行,说明 OpenAI 还在“边飞边改造”

目前最让人有点头疼的地方,是 OpenAI 并没有一次性切干净。它保留了 legacy rate card,也就是旧版“按消息/按 PR 估算积分”的价格表。新老客户会因为迁移状态不同,适用不同规则:新的 ChatGPT Business 客户以及新的 Enterprise 客户用新版 Token 计费;而不少 Plus、Pro、Edu 以及既有 Enterprise 客户,暂时还要看旧表,等后续迁移通知。

这说明 OpenAI 这轮改革不是纯粹的定价设计,而是一场系统迁移。价格体系、后台计量、用户教育、管理控制台、销售合同,可能都得一起改。对于一家高速迭代的 AI 公司来说,这很常见:产品先跑,等用户规模和企业需求上来,再逐步把“消费级体验”改造成“企业级治理”。但对客户而言,这种过渡期总是有些别扭——同样叫 Codex,不同工作区却可能适用不同计费逻辑,沟通成本会明显上升。

这也是今天很多 AI 平台的共同处境。Anthropic、Google、微软其实也都在经历类似变化:一边想把模型尽可能无缝地塞进办公和开发流程,一边又不得不面对越来越细的成本归因与配额管理。说白了,AI 产品正在失去“魔法感”,获得“报销单感”。这未必浪漫,但很成熟。

OpenAI 还提到,Codex 平均每名开发者每月成本大约在 100 到 200 美元之间,但波动会很大,受模型选择、实例数量、自动化任务和快速模式影响。这个数字放在企业软件预算里并不算离谱,但如果一个团队把 AI 编程当作“默认开启的第二开发环境”,总体成本很快会变成一笔需要认真审视的支出。

这对 AI 编程市场意味着什么

过去一年,AI 编程工具的竞争越来越像一场“表面免费,背后拼单位经济模型”的比赛。GitHub Copilot、Cursor、OpenAI Codex、Anthropic 驱动的各类 coding agent,都在想办法让用户觉得“好用到离不开”,同时又不至于把推理成本烧穿。用户以前关心的是模型会不会写代码,现在开始关心这段代码到底值多少钱。

OpenAI 这次把 Codex 的价格拆得更透明,我的判断是:它不是在收紧,而是在为更大规模的企业采用铺路。企业真正愿意扩大部署的前提,从来不是“先用再说”,而是“我能预测成本、能监控消耗、能优化使用”。帮助中心里已经直接提示用户去 Codex 设置中的 Usage 面板查看工作区 Token 用量,这套玩法明显是在培养一种云资源管理习惯。

但这也引出一个值得思考的问题:当 AI 编程工具越来越像云基础设施,开发者的创造过程会不会被“成本意识”过度打断?如果每次让模型多解释两句、再推理一步、再多试一种方案,都意味着更高账单,团队会不会逐渐偏向“够用就好”,从而抑制一些探索性工作?这是一个很现实的 tension。便宜、快、强,三者从来难以同时拉满,AI 编程也一样。

我个人倒觉得,行业最终会分成两条路。一条是像水电煤一样的基础型 AI 编程服务,按量计费、严格配额、强调管理;另一条则是更产品化的“包月创作工具”,用订阅制吸收复杂成本,让个人用户少操心。OpenAI 现在明显在向前一条路加码,尤其是面向 Business 和 Enterprise 的 Codex。对大客户来说,这是成熟;对个人用户来说,可能意味着“免费午餐”越来越少。

从更长远看,这次价格表更新也提醒我们:AI 不是只有模型参数和 benchmark,真正决定它能否普及的,往往是那些看起来最无聊的东西——计费、配额、缓存、控制台、报表。技术革命走到商业落地阶段,拼的就是这些“无聊能力”。谁能把账算清楚,谁才更有机会把市场做大。

Summary: OpenAI 这次调整 Codex 计费,不只是把价格标签换了一种写法,而是在把 AI 编程服务推向更成熟的企业运营阶段。我的判断是,未来半年到一年,类似“按 Token、按任务结构、按响应速度”拆分的计费方式会成为主流,AI 开发工具也会越来越像云服务。对用户来说,透明度提升是好事,但也意味着必须学会管理自己的 AI 使用习惯——接下来真正稀缺的,不只是模型能力,还有“高性价比地使用模型”的能力。
Codex 计费模式调整OpenAIToken 计费AI 编程工具Codex成本管理rate card云计算式计费输入/输出 Token企业采购