背景
Claude Code 的 token 消耗结构有个特点:任务拆解和规划消耗的 token 比实际写代码多得多。
实测过一个完整的用户系统项目,Claude Code 帮我拆解任务花了 3 美元,真正生成代码只花了 5 毛。
重度用户月均消耗轻松破千美元,有团队日均 50 美元以上。这个成本让很多人开始寻找替代方案。
核心思路:规划与执行分离
Claude Code 消耗高的本质是"用最贵的模型做规划"。但规划这件事,需要的是推理能力和知识广度,不需要精准的代码生成能力——这是便宜模型擅长的领域。
思路:
DeepSeek(或其他便宜模型) 负责规划 ↓ Claude Code 负责执行两者打配合,任务完成,质量不变,成本降到 1/17。
方案一:DeepClaude(已开源,最简单)
GitHub:github.com/aattaran/deepclaude
原理:用 DeepSeek V3/R1 做规划引擎,Claude Code 做执行引擎,通过 agent loop 串联。
适合场景:
- 已经重度使用 Claude Code,不想换工作流
- 日均消耗 $50+ 的团队或个人
配置步骤:
- 获取 DeepSeek API(官方或第三方)
- 安装 Claude Code(如果还没装)
- 配置环境变量:
exportDEEPSEEK_API_KEY="your-deepseek-key"exportDEEPSEEK_BASE_URL="https://api.deepseek.com"# 或第三方地址- 修改 Claude Code 的 agent loop 配置,让它优先调用 DeepSeek 做规划
实测数据(社区反馈):
- 日均 $60 → $3.5
- 任务完成质量与单独使用 Claude Code 相当
- 复杂任务(多文件重构)有时比纯 Claude Code 更稳定
方案二:本地部署(零成本,数据不出墙)
如果你对成本更敏感,或者数据有保密要求,可以用 Ollama 部署开源模型。
适合场景:
- 完全免费优先
- 数据不能出网
配置步骤:
- 安装 Ollama
# Mac/Linuxcurl-fsSLhttps://ollama.com/install.sh|sh# WindowswingetinstallOllama.Ollama- 下载模型
ollama pull qwen2.5-coder:14b- 配置 Claude Code 使用本地模型做规划
exportOLLAMA_BASE_URL="http://localhost:11434"exportPLANNING_MODEL="qwen2.5-coder:14b"本地 vs API 对比:
| 方案 | 成本 | 速度 | 质量 |
|---|---|---|---|
| DeepSeek API | $3/天 | 快 | 高 |
| Ollama 本地 | 免费 | 取决于硬件 | 中高 |
方案三:等待生态支持
ruflo(github.com/ruvnet/ruflo)和 n8n-mcp 正在做多 Agent 编排层,未来可能直接支持"规划 Agent + 执行 Agent"的组合,到时候配置一下就能用。
边界情况
哪些场景适合这个方案:
- 需要 Claude Code 帮你拆解大型任务
- 单次任务消耗大(多文件重构、架构设计)
- 长时间高频使用
哪些场景不太适合:
- 简单的一次性任务,让便宜模型直接搞定更划算
- 需要 Claude Code 原生工具能力的场景(深度调试、复杂终端操作),规划与执行分离后执行端可能需要额外适配
总结
核心就一句话:让合适的模型做合适的工作,而不是让最强模型干所有事。
| 方案 | 成本 | 工程量 | 推荐度 |
|---|---|---|---|
| DeepClaude | $3/天 | 低 | 首选 |
| Ollama 本地 | 0 | 中 | 省钱优先 |
| 等生态 | - | - | 观望 |
有具体问题欢迎评论区交流,实测数据也欢迎分享。