OpenClaw 模型配置终极指南:5 种方案实测,帮你选出最适合的那个

上周有个朋友问我:"OpenClaw 装好了,但选模型这步直接懵了------官方 API 太贵,DeepSeek 免费但不稳,本地跑 Ollama 又卡,到底该用哪个?"

说实话这问题我自己也纠结过。OpenClaw 刚火的时候我跟风装了,结果第一天就踩坑:直接用 Anthropic 官方 API,跑了个文件整理任务,一看账单 $12 没了。后来花了两周把市面上主流方案都试了一遍,今天把结果分享出来。

先说结论

方案 模型 延迟 稳定性 月成本(中度使用) 适合谁
Anthropic 官方 Claude Sonnet 4 ~2s ⭐⭐⭐⭐⭐ $30-80 预算充足、追求最佳效果
DeepSeek 官方 DeepSeek-V3 ~3s ⭐⭐⭐ $5-15 预算有限、能忍偶尔抽风
Ollama 本地 Qwen3 32B ~5s ⭐⭐⭐⭐ $0(电费另算) 有好显卡、注重隐私
OpenRouter 多模型切换 ~3s ⭐⭐⭐⭐ $20-50 需要多模型、海外网络好
聚合 API(ofox等) 全模型 ~1.5s ⭐⭐⭐⭐⭐ $15-40 国内用户、要稳定+多模型

下面逐个说说踩过的坑。

方案一:Anthropic 官方 API ------ 贵但确实好用

这是 OpenClaw 默认推荐的配置,也是效果最好的。

bash 复制代码
openclaw config set apiProvider anthropic
openclaw config set apiKey sk-ant-xxxxx
openclaw config set apiModelId claude-sonnet-4-6

优点:

  • 效果拉满,Sonnet 4 对 Agent 任务的理解能力确实是第一梯队
  • 官方支持,文档齐全
  • 延迟稳定

踩坑:

  • 第一次跑的时候没设 maxTokens,一个任务直接吃了 200k token
  • 国内直连不了,要配代理或者用兼容 API
json 复制代码
// config.json 配置示例
{
  "llm": {
    "provider": "anthropic",
    "model": "claude-sonnet-4-6",
    "api_key": "sk-ant-xxxxx",
    "max_tokens": 8192,
    "temperature": 0.7
  }
}

成本参考: Sonnet 4 输入 <math xmlns="http://www.w3.org/1998/Math/MathML"> 3 / M T o k ,输出 3/MTok,输出 </math>3/MTok,输出15/MTok。一个中等复杂的编码任务大概消耗 50k-100k token,算下来一个任务 <math xmlns="http://www.w3.org/1998/Math/MathML"> 0.3 − 1.5 。一天跑 10 个任务,月费 0.3-1.5。一天跑 10 个任务,月费 </math>0.3−1.5。一天跑10个任务,月费90-450。

说实话,个人开发者用这个方案,钱包会疼。

方案二:DeepSeek 官方 API ------ 便宜大碗但得看运气

DeepSeek-V3 的性价比是真的高,API 价格只有 Claude 的 1/10 不到。

bash 复制代码
openclaw config set apiProvider openai-compatible
openclaw config set baseUrl https://api.deepseek.com/v1
openclaw config set apiKey sk-xxxxx
openclaw config set apiModelId deepseek-chat

优点:

  • 便宜,真的便宜
  • 中文理解不错
  • 代码生成能力可以

踩坑(重点):

  1. 高峰期直接 502 ------ 下午 2-5 点是重灾区,体感有 20% 的请求会超时
  2. 长上下文容易丢内容 ------ 给它一个大项目让它改代码,改着改着就"忘了"前面的文件结构
  3. Agent 循环 ------ DeepSeek 对工具调用的理解偶尔出 bug,我遇到过它在两个工具之间无限循环的情况
python 复制代码
# 我的解决方案:加重试 + 超时
import time

def call_with_retry(func, max_retries=3):
    for i in range(max_retries):
        try:
            return func()
        except Exception as e:
            if "502" in str(e) or "timeout" in str(e):
                time.sleep(2 ** i)
                continue
            raise
    raise Exception("重试次数用尽")

成本参考: DeepSeek-V3 输入 ¥1/MTok,输出 ¥2/MTok,同样的任务成本不到 Claude 的 1/10。

方案三:Ollama 本地模型 ------ 零成本但有门槛

本地跑模型的好处是完全免费(电费除外),而且数据不出本机。

bash 复制代码
# 先装 Ollama
brew install ollama    # macOS
# 拉模型
ollama pull qwen3:32b
# OpenClaw 配置
openclaw config set apiProvider ollama
openclaw config set baseUrl http://localhost:11434/v1
openclaw config set apiModelId qwen3:32b

优点:

  • 零 API 费用
  • 数据隐私有保障
  • 不依赖网络

踩坑:

  1. 显存是硬门槛 ------ Qwen3 32B 需要至少 20GB 显存才能流畅跑。我的 M2 Max 64GB 跑起来还行,但 16GB 的 MacBook Air 直接卡死
  2. 小模型效果断崖式下降 ------ 试过 7B 的模型,基本上只能做最简单的任务,稍微复杂一点就开始胡说八道
  3. 首次推理冷启动慢 ------ 模型加载到内存要 30-60 秒
bash 复制代码
# 查看 Ollama 资源占用
ollama ps
# 输出示例:
# NAME         ID          SIZE     PROCESSOR    UNTIL
# qwen3:32b    a1b2c3d4    19 GB    100% GPU     4 minutes from now

我的建议: 如果你有 M2 Pro/Max 或以上的 Mac,或者有一张 3090/4090,可以本地跑 32B 的模型。否则建议别折腾。

方案四:OpenRouter ------ 一个 Key 切换多模型

OpenRouter 是海外比较流行的模型聚合方案。

bash 复制代码
openclaw config set apiProvider openrouter
openclaw config set apiKey sk-or-xxxxx
openclaw config set apiModelId anthropic/claude-sonnet-4-6

优点:

  • 一个 API Key 访问几十个模型
  • 可以按需切换(简单任务用便宜模型,复杂任务用 Claude)
  • 有免费额度可以试用

踩坑:

  • 国内访问需要代理
  • 部分模型的定价比官方还贵(加了中间商费用)
  • 偶尔有路由延迟

方案五:国内聚合 API ------ 对国内用户最友好

这是我目前在用的方案。国内有几家做 API 聚合的,原理是用 OpenAI 兼容协议统一封装了各家的 API。

bash 复制代码
openclaw config set apiProvider openai-compatible
openclaw config set baseUrl https://api.ofox.ai/v1
openclaw config set apiKey sk-xxxxx
openclaw config set apiModelId claude-sonnet-4-6

为什么最后选了这种方案:

  1. 国内直连 ------ 不用配代理,延迟反而比直连 Anthropic 还低(因为用了国内云加速节点)
  2. 一个 Key 用所有模型 ------ Claude、GPT、Gemini、DeepSeek、Qwen 都能用,改个 model ID 就行
  3. OpenAI 兼容协议 ------ OpenClaw 原生支持,配置最简单
python 复制代码
# 对比测试:同一个任务的响应时间
# Anthropic 官方(走代理): 3.2s
# DeepSeek 官方: 2.8s(非高峰)/ 超时(高峰)
# 聚合 API(国内节点): 1.4s

实际使用体验:

我现在的策略是:

  • 日常编码任务 → Claude Sonnet 4(效果好)
  • 简单的文本处理 → DeepSeek-V3(省钱)
  • 需要多模态 → Gemini 2.5 Pro(图片理解强)

三个模型共用一个 API Key,只需要改 apiModelId,不用重新配置。

高级技巧:混合模型策略

OpenClaw 支持在 config.json 中配置不同任务用不同模型:

json 复制代码
{
  "llm": {
    "provider": "openai-compatible",
    "base_url": "https://api.ofox.ai/v1",
    "api_key": "sk-xxxxx",
    "model": "claude-sonnet-4-6"
  },
  "tool_call_model": {
    "provider": "openai-compatible",
    "base_url": "https://api.ofox.ai/v1",
    "api_key": "sk-xxxxx",
    "model": "deepseek-chat"
  }
}

这样主对话用 Claude(效果好),工具调用用 DeepSeek(省钱),实测能节省 40-60% 的 token 成本。

踩坑汇总

错误 原因 解决
401 Unauthorized API Key 错误或过期 检查 Key 是否正确,注意前缀
429 Too Many Requests 触发速率限制 降低并发或换 Provider
502 Bad Gateway 上游服务不稳定 重试或切换模型
context_length_exceeded 输入太长 减少上下文或用支持长上下文的模型
模型返回空内容 部分模型不支持 tool_use 检查模型是否支持 function calling
响应突然变成英文 模型 system prompt 没设中文 在配置中加 "language": "zh-CN"

小结

折腾了两周,我的结论是:没有完美方案,只有最适合自己的

  • 不差钱 → Anthropic 官方
  • 想省钱 → DeepSeek(忍受偶尔抽风)
  • 有好显卡 → 本地 Ollama
  • 国内用户想要稳定+多模型 → 聚合 API

对我来说,最终选了聚合方案,主要是因为国内直连 + 多模型切换这两点太方便了。但说到底,OpenClaw 用什么模型不是最重要的,重要的是你拿它来做什么。

一个好的 Prompt 设计 + 合理的任务拆分,效果提升远大于换模型带来的提升。这个话题以后有空再聊。


如果这篇文章帮到你了,点个赞不过分吧?有其他配置问题欢迎评论区交流,我看到都会回。

相关推荐
gujunge5 小时前
Spring with AI (3): 定制对话——Prompt模板引入
ai·大模型·llm·openai·qwen·rag·spring ai·deepseek
视觉&物联智能6 小时前
【杂谈】-人工智能蓬勃演进背后的隐性支撑体系
人工智能·ai·aigc·算力·agi·deepseek
得物技术7 小时前
从IDE到Terminal:适合后端宝宝体质的Claude Code工作流|得物技术
agent·ai编程·claude
码路飞10 小时前
SWE-bench 都 80% 了,AI 真能修 Bug?我拿 3 个真实场景测了 5 个
llm·claude
DS随心转插件14 小时前
ChatGPT或Gemini如何生成word文档
人工智能·ai·chatgpt·word·deepseek·ds随心转
烛阴1 天前
Claude Code Skill 从入门到自定义完整教程(Windows 版)
前端·ai编程·claude
gujunge1 天前
Spring with AI (2): 评估答案——UnitTest引入
ai·大模型·llm·openai·qwen·rag·spring ai·deepseek
aicodego1 天前
Python 调用 Claude API 全流程:基础调用、流式输出、多轮对话,踩坑记录一次讲完
claude
codingWhat1 天前
Claude Code 使用技巧:把“聪明实习生”变成你的王牌搭档
claude