很多人配置 OpenClaw 时发现:模型列表里有 OpenAI、Gemini、Kimi、GLM,就是没有 Claude。这不是 OpenClaw 的疏漏,而是一个商业现实。
OpenClaw 的核心能力依赖长时间运行的对话会话 + 工具调用 + 持久状态,上述模型都提供了标准的 REST API 接口,任何第三方应用可以直接接入。但 Anthropic 对 Claude API 的使用有较严格的限制,并不像 OpenAI 那样对第三方生态完全开放。更关键的是,Anthropic 自己有 Claude Code 这个产品,它与 OpenClaw 定位高度重叠,Anthropic 没有动力让竞品直接调用自家模型做同样的事。
**重点:**不是技术上做不到,是 Anthropic 的商业策略不让做。
好在办法总比困难多。我们可以通过 CLI 后端的方式,让 OpenClaw 调用本地安装的 Claude Code,从而间接使用 Claude 模型------也就是本文要介绍的"曲线救国"方案。
前置条件
开始配置前,请确认以下三项已就绪:
-
已安装 OpenClaw
-
已安装 Claude Code CLI
-
Claude Code 已完成认证(运行过
claude命令并登录)
安装 Claude Code CLI 命令:
npm install -g @anthropic-ai/claude-code
配置步骤
编辑 ~/.openclaw/openclaw.json,依次完成以下三步配置。
第一步:添加 CLI 后端
在 agents.defaults 下添加 cliBackends 配置:
{
"agents": {
"defaults": {
"cliBackends": {
"claude-cli": {
"command": "node",
"args": [
"C:\\Users\\你的用户名\\AppData\\Roaming\\npm\\node_modules\\@anthropic-ai\\claude-code\\cli.js",
"-p",
"--output-format",
"json",
"--dangerously-skip-permissions"
],
"resumeArgs": [
"C:\\Users\\你的用户名\\AppData\\Roaming\\npm\\node_modules\\@anthropic-ai\\claude-code\\cli.js",
"-p",
"--output-format",
"json",
"--dangerously-skip-permissions",
"--resume",
"{sessionId}"
]
}
}
}
}
}
**注意:**请将路径中的"你的用户名"替换为实际的 Windows 用户名。
第二步:配置模型别名
在 agents.defaults.models 中添加别名,方便后续切换:
{
"agents": {
"defaults": {
"models": {
"claude-cli/sonnet": {
"alias": "CC"
}
}
}
}
}
第三步:为 Agent 指定模型
在具体的 Agent 配置中使用 claude-cli/sonnet 作为模型:
{
"agents": {
"list": [
{
"id": "coder",
"name": "程序员",
"model": "claude-cli/sonnet",
"workspace": "C:\\Users\\你的用户名\\clawd\\coder"
}
]
}
}
工作原理
整个调用链路如下:
用户消息
↓
OpenClaw
↓
Claude Code CLI(本地进程)
↓
Anthropic API
↓
Claude 模型响应
OpenClaw 会启动一个 Claude Code CLI 进程来处理请求,CLI 使用你本地的 Anthropic 认证信息调用 Claude API。
优缺点对比
| 类型 | 说明 |
|---|---|
| 优点 | 无需等待 OpenClaw 官方支持 Claude,可立即使用 Claude 强大的代码能力;配置灵活,可混合使用多种模型。 |
| 缺点 | 每次调用都启动新进程,有一定延迟;依赖本地 Claude Code 的认证状态;消耗的是你自己的 Claude API 额度。 |
适用场景建议
推荐将 Claude 用于对推理能力要求较高的任务:
-
代码编写和调试
(coder agent)
-
复杂的分析任务
(intel agent)
-
需要强推理能力的场景
**提示:**简单任务可以继续使用 Kimi 或 GLM 等国产模型,节省 Claude API 额度。