OpenClaw 本地安装与 GPT 模型接入计划(OpenAI 登录版)
OpenClaw 本地安装与 GPT 模型接入计划(OpenAI 登录版)
Summary
- 目标:安装 openclaw-cli,并通过 OpenAI 登录(OAuth) 配置模型。
- 本计划只做 CLI 路径,并使用
OpenAI 登录。
Implementation Changes
- 安装与基础验证
- 执行:
brew install openclaw-cli
- 验证:
openclaw --version、openclaw --help
- 目标结果:命令可用,帮助信息正常输出。
- 使用 OpenAI 登录配置
- 推荐向导方式:openclaw onboard --auth-choice openai-codex
- 或直接登录:openclaw models auth login --provider openai-codex
- 按提示浏览器登录并完成回调/粘贴授权码
- 配置默认模型
- 先通过
openclaw --help / openclaw config --help确认 CLI 的精确配置子命令。
- 统一目标配置:
- provider:
openai
- model:
openai-codex/gpt-5.4(若账号下该模型不可用,降级到可用的 openai-codex/* 模型)
- 若 CLI 支持配置命令则写入全局配置;若不支持则使用其交互式初始化流程完成同等设置。
- 端到端连通验证
- 运行一条最小请求(如
openclaw chat "输出OK" 或等价命令)。
- 预期:返回有效模型响应;无鉴权/配额/模型不存在错误。
- 若失败,按错误类型处理:
401/invalid_api_key:更新 key
model_not_found:切换到 gpt-4.1
- 网络错误:检查代理/防火墙与 DNS
Test Plan
- 安装测试:
openclaw --version 成功且退出码 0。
- 配置测试:
openclaw 配置中可看到 provider/model 已生效。
- 功能测试:一次最小对话请求成功返回文本。
- 回归测试:重启终端后再次调用
openclaw 仍能直接使用 GPT(证明环境变量持久化有效)。
Assumptions
- 使用 Homebrew 作为唯一安装通道(不走 npm/pip 方案)。
- 模型默认优先
gpt-5.4,不可用时固定降级 gpt-4.1。