Claude Code 的贵,未必只贵在模型聪明。

GitHub 上的 deepclaude 做了一件很取巧的事:不重写 Claude Code,不仿一个新 IDE,只改 Claude Code 读取的 Anthropic 兼容环境变量,把模型 API 后端换成 DeepSeek V4 Pro、OpenRouter 或 Fireworks。

也就是说,手脚还是 Claude Code,脑子可以换。

这对重度使用 Claude Code 的开发者很敏感。因为它碰到的不是“谁家模型更强”这种口水题,而是每天真实发生的账单题:同样跑 agent、改文件、执行命令、提交 git,能不能把一部分模型成本降下来。

deepclaude 改了什么:换模型,不换工作流

deepclaude 保留 Claude Code CLI 的交互入口,也保留它已经做好的代理循环。

文件读写、bash / PowerShell、git、多步 agent 流程、subagent spawning、项目初始化,这些仍然走 Claude Code 的壳。它替换的是模型调用的目的地。

项目deepclaude 的做法对用户的影响
交互入口仍用 Claude Code CLI使用习惯基本不变
工具循环保留文件读写、bash、git、多步 agent日常编码流程还能跑
模型后端接 DeepSeek V4 Pro、OpenRouter、Fireworks成本可能下降,效果取决于后端模型
远程控制仍依赖 Anthropic bridge 和 claude.ai 订阅Anthropic 基础设施没有被绕开
会话配置设置 ANTHROPIC_BASE_URLANTHROPIC_AUTH_TOKEN、默认模型名按会话生效,退出后恢复

这里最容易误读。

deepclaude 不是 Anthropic 和 DeepSeek 的官方合作,也不是一个新的官方产品。它更像是利用 Claude Code 的兼容层,把模型请求转到别处。

远程控制部分也没有完全脱离 Anthropic。WebSocket bridge 仍走 Anthropic,相关能力仍依赖 claude.ai 订阅;模型调用则可由本地代理分流到 DeepSeek。

所以它撬开的不是平台主权,而是模型调用的价格缝。

便宜有吸引力,但别把它当完整平替

项目 README 的价格对比很直白。

模型 / 价格口径输入价格输出价格备注
DeepSeek V4 Pro$0.44/M$0.87/M项目 README 列价
Anthropic 表中价格$3/M$15/M项目 README 对比锚点
项目宣称最高约 17x cheaper按其列价计算,不是独立测评结论

这个差价对个人开发者和小团队很现实。

如果你每天用 Claude Code 改小功能、查代码、跑测试、整理 git diff,模型调用成本会积少成多。deepclaude 给出的思路是:把高频、低风险、可验证的任务交给便宜模型,把少数难题留给 Claude Opus。

项目自己的说法也比较克制:80% routine tasks 可以用 DeepSeek V4 Pro,20% complex reasoning 仍建议切回 Claude Opus。

这句话比“DeepSeek 打败 Claude”有用得多。

场景 / 能力deepclaude 当前边界更现实的用法
日常编码任务README 称 routine tasks comparable改小功能、读文件、跑命令、生成常规补丁
复杂推理仍建议 Claude Opus架构判断、困难 bug、复杂迁移别硬省
图像输入不支持视觉相关任务不适合
并行工具禁用agent 执行效率会打折
MCP不支持外部工具生态扩展受限
Anthropic cache_control不生效DeepSeek 有自动缓存,但不是同一套机制

开发者该怎么做,其实很简单。

个人重度用户可以把 deepclaude 当“日常模式”试。前提是任务可回滚、结果可测试、改动范围不大。

团队采购要更谨慎。不要因为 17x cheaper 的口号立刻迁移主流程。更合理的动作是延后大额模型调用预算决策,先做一组内部对照:同一批 routine tasks,比较通过率、返工率、测试失败率和人工 review 时间。

安全负责人更不该只盯 token 单价。模型后端换了,数据流向、密钥管理、日志留存、供应商合规都要重新过一遍。省下来的钱如果换成更高的审计成本,账未必好看。

AI 编程里最贵的从来不只是 token。更贵的是错误被合并进主干以后,谁来擦屁股。

被拆开的护城河:壳层、模型和控制权

我更在意的不是 DeepSeek 有没有赢。

deepclaude 暴露的是另一个行业现实:Claude Code 的价值正在被拆成两层。

一层是代理产品壳层。它负责任务规划、工具调用、文件上下文、命令执行、git 操作、远程控制。

另一层是模型大脑。它负责推理、补全、判断下一步。

过去大家容易把这两层混在一起,以为强模型自然等于强产品。deepclaude 反过来说明:产品壳层本身很值钱,值钱到低价模型愿意贴上来借路。

这有点像早期铁路。不完全一样,但结构相似。

铁轨铺好以后,竞争不只在谁的火车头更猛,还在谁控制线路、站点、调度和收费口。今天的 Claude Code,就是一段已经嵌入开发者工作流的铁轨。模型厂商想进来,最快的办法不是另修一条路,而是先借道。

但借道不是拥有道路。

Claude Code 本体、认证、远程 bridge、订阅关系、工具协议,仍然是 Anthropic 的控制点。兼容层如果收紧,协议如果变化,工具能力如果绑定更深,deepclaude 这类路径就会变窄。

接下来真正该观察的,不是 GitHub 上又冒出几个类似脚本。

更关键的是三件事:Claude Code 是否收紧兼容接口;低价模型在 routine coding 上的稳定性是否继续逼近;企业团队是否愿意把“模型后端可替换”写进自己的 AI 编程工具策略。

这会改变采购谈判。

以前供应商卖的是“我的模型最强”。以后客户会问得更细:你的 agent 壳能不能接别的模型?我的工具权限能不能迁移?缓存、日志、审计、MCP 能不能保持一致?

“天下熙熙,皆为利来。”放在这里很合适。Claude Code 的壳越好用,越会有人想把更便宜的脑子接上去。

但价格套利不是终点。

AI 编程工具的护城河,正在从单个模型,转向模型、工具、权限、工作流和平台控制权的捆绑。deepclaude 只是把这件事提前摊在桌面上。