写在前面:我是一个独立开发者,从今年初开始重度使用 OpenClaw。第一个月账单出来的时候我人傻了------光 API 费用就花了 400 多美元。后来花了两周时间研究怎么省钱,现在月成本控制在 20 美元以内,体验基本没缩水。这篇文章把我踩过的坑和摸出来的方法全写出来,希望帮你少交点"智商税"。

先说说为什么龙虾这么能吃
很多人第一反应是:"不就是个 AI 聊天吗,能花多少钱?"
兄弟,OpenClaw 不是聊天机器人。它是一个 Agent------每次执行任务,它不是简单地"问一句答一句",而是一个循环:思考 → 调工具 → 看结果 → 再思考 → 再调工具......这个循环每转一圈,Token 就哗哗地烧。
具体来说,Token 消耗的大头在这几个地方:
1. 上下文重复注入(最大的杀手,占 40-50%)
每次 OpenClaw 跟大模型对话,它都会把一堆"背景资料"重新发一遍:
你的 MEMORY.md 如果膨胀到几百行(很容易的,用几天就会),哪怕你只是跟它说一句"早上好",光输入就要吃掉 8000-15000 个 Token。
就这一句早上好,按 Claude Opus 的价格,大概 0.1-0.2 美元。一天打几次招呼就是一块多美元没了。
2. 心跳和定时任务(隐形吞金兽)
很多人配了 Cron 任务------每 15 分钟检查一下邮件、每小时刷一下热点之类的。
问题是:每次心跳都是一次完整的 Agent 调用,带着全部上下文。
我之前犯的最蠢的错误就是:用 Claude Opus 跑心跳。一天 96 次心跳 × 每次 1.5 万 Token ≈ 一天 144 万 Token,光心跳就烧十几美元。
3. 工具输出和历史累积
OpenClaw 每次调用工具(读文件、跑命令、刷网页),工具返回的内容会塞进上下文。如果你让它读一个大文件、或者浏览一个长网页,一次就能灌进去几万 Token。
而且这些历史不会自动清理,会像滚雪球一样越来越大。
4. 模型选错了
全程用顶级模型处理所有任务,就像开法拉利去买菜------能到,但没必要。
我的省钱方法论(从月花 400 刀降到 20 刀以内)
下面是我实际在用的方法,按"投入产出比"排序,最容易做的放前面。
方法一:定期压缩上下文(零成本,立即见效)
这是最简单但很多人不知道的操作:
- 经常用
/compact命令,让 OpenClaw 总结历史、压缩上下文 - 或者直接
/new开新会话 - 把 MEMORY.md 控制在 80 行以内
我的做法是:核心信息放 MEMORY.md,其他详细记录放到单独的文件里,让 Agent 需要的时候再去 read。
效果:光这一步,Token 消耗直接砍掉 30-40%。
方法二:精简注入文件
去看看你的 AGENTS.md 和 SKILL.md,是不是写了一大堆废话?
- 把描述精简到最短能表达清楚的程度
- 禁用你不用的工具(每个工具的 schema 描述都要占 Token)
- 大文件别设成自动注入,改成按需读取
我把 AGENTS.md 从 200 多行砍到 60 行,每次调用直接少吃 3000 Token。
方法三:智能模型路由(最推荐,省 70%+)
这是我觉得性价比最高的方法------不同任务用不同模型。
| 任务类型 | 用什么模型 | 大概成本 |
|---|---|---|
| 心跳、日志检查、简单判断 | Haiku / Qwen / 本地 Ollama | 几乎免费 |
| 日常对话、文件整理 | Sonnet / Kimi / Grok 快模型 | 很便宜 |
| 复杂推理、写长文、做决策 | Opus / GPT-4o | 该花的花 |
怎么实现?用 OpenRouter 或者中转站,配置路由规则就行。
我现在 90% 的调用走的是便宜模型,只有真正需要深度思考的时候才用 Opus。光这一步,成本直接从每天十几美元降到两三美元。
方法四:用 API 中转站(国内用户必看)
这个是国内独立开发者的福音。
中转站的原理很简单:人家批量采购 API 额度,然后以更低的价格转卖给你。兼容 OpenAI/Anthropic 协议,配置起来就改两个字段的事。
我在用的是wellapi中转(wellapi.ai),稳定、国内直连、支持多模型。
重启,搞定。
效果:同样的调用量,成本大概是官方直连的 1/5 到 1/10。 很多人从月花几百美元直接降到几十美元。
方法五:开启 Prompt Caching
如果你用 Anthropic 的模型,它支持 Prompt Cache------重复的上下文前缀会被缓存,不重复计费。
OpenClaw 每次调用都带着那堆固定的系统提示词和 AGENTS.md,这些内容几乎不变,缓存命中率极高。
开启之后,重复上下文的费用直接打一折。具体怎么开看你用的中转站或直连的文档,一般加个参数就行。
方法六:区域订阅薅羊毛(谨慎使用)
Claude Pro 订阅有区域定价差异:
- 美国:$20/月
- 尼日利亚:约 $11/月(便宜 45%)
- 埃及、土耳其也有折扣
有些人通过切换 App Store 地区来拿低价订阅,再结合 Proxy 转成 API 调用。
但我要提醒:这个有封号风险,我自己没这么干,只是知道有人在做。 个人小规模用问题不大,商用就别冒险了。
我现在的配置方案(供参考)
日常心跳/简单任务 → Qwen(本地 Ollama 或中转站)
内容生成/文件处理 → Sonnet 3.5(中转站)
复杂推理/重要决策 → Opus(中转站 + Prompt Cache)
上下文管理 → 每天 /compact 一次,MEMORY.md 控制 80 行内
监控 → LiteLLM Proxy 层加预算警报,日消耗超 $3 自动通知
实际月成本:15-20,偶尔重度使用的月份也不超过 30。
对比最初的 $400+,省了 95%。
几个容易踩的坑
- 别让 Agent 读大文件 ------ 一个 10KB 的文本文件灌进去就是几千 Token,让它只读需要的部分
- 别用贵模型跑 Cron ------ 这是最常见的新手错误,心跳用最便宜的模型就够了
- 别无限累积历史 ------ 定期 compact,或者设置自动 compaction 阈值
- 别装一堆用不到的技能包 ------ 每个技能的描述都会注入上下文,装 20 个技能包可能多吃 5000 Token/次
- 设预算警报 ------ 不管你多自信,先设一个日上限。我被坑过一次之后再也不裸奔了
总结:省钱优先级
如果你懒得看上面那么多,就按这个顺序做:
- 精简文件 + 定期 Compact(5 分钟搞定,省 30-40%)
- 模型路由,简单任务用便宜模型(配置一下,省 70%)
- 上中转站(改两行配置,成本再砍 80%)
- 开 Prompt Cache(如果支持的话)
- 区域订阅(有风险,量力而行)
最后说两句
OpenClaw 本身是开源免费的,真正的成本全在 Token 上。很多人觉得"养龙虾太贵"然后放弃了,其实不是龙虾贵,是你没管好它的"饭量"。
管好上下文、选对模型、用好中转,龙虾完全可以是一个月成本不到一杯咖啡钱的高效生产力工具。