OpenClaw Windows 完整安装与本地模型配置教程(实战版)
说实话这玩意火了有一段时间了但是虽然作为从业者,我至今还没用过,今天就边安装边记录出一篇记录文档吧吗,这里仅仅只会记录我安装的出现的问题,破玩意还是mac安装方便,如果还么用过的同学可以看看,用过的就算了,我也只是今天先装上有空再去看看能干点啥这玩意,好的就这样。
作者:吴佳浩
撰稿时间:2026-2-27
最后更新:2026-2-28
测试模型: Qwen3.5-35B(ollama 量化的版本我比较懒就用这个你们自己随意)
OpenClaw(前身为 ClawdBot / Moltbot)是一款开源的本地自托管 AI 个人智能助手平台,支持接入 Claude、GPT、Qwen、DeepSeek、Ollama 本地模型等,可实现文件操作、终端执行、浏览器控制、定时任务等全场景自动化。
本文基于 RTX 5090 + 96GB 内存 + Windows 11 真实环境实战整理,包含所有踩坑记录与解决方案。
目录
- 系统要求
- 整体流程概览
- [Step 1:安装 Node.js(≥ 22)](#Step 1:安装 Node.js(≥ 22) "#3-step-1%E5%AE%89%E8%A3%85-nodejs--22")
- [Step 2:安装 OpenClaw](#Step 2:安装 OpenClaw "#4-step-2%E5%AE%89%E8%A3%85-openclaw")
- [Step 3:运行初始化向导(完整实战)](#Step 3:运行初始化向导(完整实战) "#5-step-3%E8%BF%90%E8%A1%8C%E5%88%9D%E5%A7%8B%E5%8C%96%E5%90%91%E5%AF%BC%E5%AE%8C%E6%95%B4%E5%AE%9E%E6%88%98")
- [Step 4:安装 Ollama(本地模型运行环境)](#Step 4:安装 Ollama(本地模型运行环境) "#6-step-4%E5%AE%89%E8%A3%85-ollama%E6%9C%AC%E5%9C%B0%E6%A8%A1%E5%9E%8B%E8%BF%90%E8%A1%8C%E7%8E%AF%E5%A2%83")
- [Step 5:下载本地模型](#Step 5:下载本地模型 "#7-step-5%E4%B8%8B%E8%BD%BD%E6%9C%AC%E5%9C%B0%E6%A8%A1%E5%9E%8B")
- [Step 6:修复 Ollama 上下文窗口(必做)](#Step 6:修复 Ollama 上下文窗口(必做) "#8-step-6%E4%BF%AE%E5%A4%8D-ollama-%E4%B8%8A%E4%B8%8B%E6%96%87%E7%AA%97%E5%8F%A3%E5%BF%85%E5%81%9A")
- [Step 7:启动 Gateway 与打开 Dashboard](#Step 7:启动 Gateway 与打开 Dashboard "#9-step-7%E5%90%AF%E5%8A%A8-gateway-%E4%B8%8E%E6%89%93%E5%BC%80-dashboard")
- [Step 8:安装 Skills 依赖](#Step 8:安装 Skills 依赖 "#10-step-8%E5%AE%89%E8%A3%85-skills-%E4%BE%9D%E8%B5%96")
- 常用命令速查
- [常见问题 FAQ(实战踩坑)](#常见问题 FAQ(实战踩坑) "#12-%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98-faq%E5%AE%9E%E6%88%98%E8%B8%A9%E5%9D%91")
- 模型推荐选型
- [openclaw.json 完整配置参考](#openclaw.json 完整配置参考 "#14-openclawijson-%E5%AE%8C%E6%95%B4%E9%85%8D%E7%BD%AE%E5%8F%82%E8%80%83")
1. 系统要求
| 项目 | 最低要求 | 推荐配置 |
|---|---|---|
| 操作系统 | Windows 10 64位 | Windows 11 |
| Node.js | ≥ 22.0 | 最新 LTS |
| 内存 | 8 GB RAM | 16 GB RAM+ |
| 显卡显存(GPU推理) | 8 GB VRAM(7B模型) | 16 GB+ VRAM |
| 磁盘空间 | 10 GB 可用 | 50 GB+ |
| 网络 | 安装时需联网 | --- |
注意:若无独立显卡,也可使用 CPU 进行推理,但速度较慢。建议配合 NVIDIA 显卡使用 GPU 加速。
2. 整体流程概览
3. Step 1:安装 Node.js(≥ 22)
方法一:官网下载(推荐)
- 打开浏览器访问:nodejs.org
- 下载 LTS 版本(确保版本号 ≥ 22)
- 双击安装包,一路「Next」完成安装
- 安装完成后,打开 PowerShell 验证:
powershell
node --version
# 输出类似:v22.11.0
npm --version
# 输出类似:10.9.0
方法二:winget 安装
powershell
# 以管理员身份运行 PowerShell
winget install OpenJS.NodeJS.LTS
实战提示 :如果
winget提示找不到命令,用完整路径调用:
powershell& "$env:LOCALAPPDATA\Microsoft\WindowsApps\winget.exe" install OpenJS.NodeJS.LTS
4. Step 2:安装 OpenClaw
A. 方式一:一键脚本(推荐)
打开 PowerShell,执行:
powershell
# 先设置执行策略
Set-ExecutionPolicy -Scope CurrentUser -ExecutionPolicy RemoteSigned
# 运行安装脚本
irm https://openclaw.ai/install.ps1 | iex
实战踩坑 :不要用
powershell -c "irm ... | iex"嵌套写法,在 PowerShell 7(pwsh)中会报「拒绝访问」。直接在当前窗口运行irm ... | iex即可。
B. 方式二:npm 全局安装
powershell
# 国内用户先切换镜像源(加速下载)
npm config set registry https://registry.npmmirror.com
# 全局安装
npm install -g openclaw
# 验证
openclaw --version
5. Step 3:运行初始化向导(完整实战)
powershell
openclaw onboard
向导每一步怎么选
Skills 推荐勾选清单
| Skill | 推荐 | 说明 |
|---|---|---|
clawhub |
技能商店,必装 | |
nano-pdf |
PDF 阅读分析 | |
summarize |
网页/文档总结 | |
github |
GitHub 操作 | |
openai-whisper |
本地语音识别 | |
video-frames |
视频帧分析 |
实战说明 :这些 Skills 在 Windows 上会提示
brew not installed安装失败,这是正常现象(brew 是 macOS 包管理器)。向导完成后按 [Step 8](#Step 8 "#10-step-8%E5%AE%89%E8%A3%85-skills-%E4%BE%9D%E8%B5%96") 手动安装 Windows 等效依赖即可。
API Key 全部跳过
向导会依次询问以下 Key,全部选 No(本地模型不需要任何云端 API):
GOOGLE_PLACES_API_KEY→ NoGEMINI_API_KEY→ NoNOTION_API_KEY→ NoOPENAI_API_KEY→ NoELEVENLABS_API_KEY→ No
6. Step 4:安装 Ollama(本地模型运行环境)
- 访问 ollama.com
- 点击 Download for Windows 下载
OllamaSetup.exe - 双击安装,完成后 Ollama 自动在后台运行(系统托盘有 图标)
验证
powershell
ollama --version
# 输出:ollama version 0.x.x
curl http://localhost:11434
# 输出:Ollama is running
7. Step 5:下载本地模型
按显存选择模型
下载命令
powershell
# 32GB 显存用户推荐
ollama pull qwen3.5:35b
# 其他选项
ollama pull qwen2.5:7b # 入门推荐
ollama pull qwen2.5:32b # 24GB 显存
ollama pull deepseek-r1:32b # 强推理
ollama pull qwen2.5-coder:32b # 代码专用
# 查看已下载模型
ollama list
8. Step 6:修复 Ollama 上下文窗口(必做!)
这是最容易踩的坑!
Ollama 默认上下文窗口只有 4096 tokens ,而 OpenClaw 要求最少 16000 tokens。不修复会报错:
powershellAgent failed before reply: Model context window too small (4096 tokens). Minimum is 16000.
解决方案:创建扩展上下文版本的模型
powershell
# 第一步:写入 Modelfile(注意用反引号换行)
"FROM qwen3.5:35b`nPARAMETER num_ctx 32768" | Out-File -FilePath "F:\Modelfile" -Encoding utf8
# 第二步:确认内容正确
Get-Content "F:\Modelfile"
# 应该输出:
# FROM qwen3.5:35b
# PARAMETER num_ctx 32768
# 第三步:创建新模型(带 -32k 后缀区分)
ollama create qwen3.5-35b-32k -f "F:\Modelfile"
# 输出 success 表示成功
其他模型同理 ,只需修改
FROM后面的模型名:
powershell"FROM qwen2.5:7b`nPARAMETER num_ctx 32768" | Out-File -FilePath "F:\Modelfile" -Encoding utf8 ollama create qwen2.5-7b-32k -f "F:\Modelfile"
更新 openclaw.json 指向新模型
powershell
# 打开配置文件
notepad $env:USERPROFILE\.openclaw\openclaw.json
用 Ctrl+H 查找替换,把所有 qwen3.5:35b 改为 qwen3.5-35b-32k,重点修改两处:
json
"id": "qwen3.5-35b-32k"
"primary": "custom-127-0-0-1-11434/qwen3.5-35b-32k"
同时把 maxTokens 改大:
json
"maxTokens": 8192
9. Step 7:启动 Gateway 与打开 Dashboard
启动 Gateway
powershell
openclaw gateway
正常启动的日志特征
powershell
[gateway] agent model: custom-127-0-0-1-11434/qwen3.5-35b-32k
[gateway] listening on ws://127.0.0.1:18789
[browser/server] Browser control listening on http://127.0.0.1:18791/
[hooks] loaded 4 internal hook handlers
注意 :如果看到
openclaw gateway start提示Gateway service missing,直接用openclaw gateway(不加 start)即可。
打开 Dashboard(三种方式)
方式一:命令自动打开(推荐,自动带 token)
powershell
# 新开一个 PowerShell 窗口执行
openclaw dashboard
方式二:手动复制带 token 的链接
向导完成时终端会显示:
powershell
http://127.0.0.1:18789/#token=xxxxxxxxxxxxxxxxxxxxxxxx
复制这个完整链接(含 #token=...)粘到浏览器打开。
方式三:创建桌面快捷方式(一劳永逸)
powershell
# 替换下面的 token 为你自己的
$token = "你的token字符串"
$url = "http://127.0.0.1:18789/#token=$token"
$shell = New-Object -ComObject WScript.Shell
$shortcut = $shell.CreateShortcut("$env:USERPROFILE\Desktop\OpenClaw.url")
$shortcut.TargetPath = $url
$shortcut.Save()
桌面生成 OpenClaw.url 图标,双击直接进入,再也不用记 token。
关于 Token 认证的说明
OpenClaw 默认启用 token 认证,原因是它拥有文件读写、终端执行、浏览器控制等高权限能力,token 防止局域网内其他人控制你的电脑。
如果只是本机自用,可以关闭:
powershell
openclaw config set gateway.auth.mode none
关闭后直接访问 http://127.0.0.1:18789 无需 token。
设置开机自启
powershell
# 安装为 Windows 计划任务
openclaw gateway install
# 立即启动
schtasks /Run /TN "OpenClaw Gateway"
10. Step 8:安装 Skills 依赖
Windows 上没有 brew,需要手动安装等效依赖。
安装 uv(修复 nano-pdf)
powershell
# 直接在当前 PowerShell 窗口执行(不要加 powershell -c 前缀)
irm https://astral.sh/uv/install.ps1 | iex
# 验证
uv --version
# 输出:uv 0.10.x
安装 scoop(Windows 替代 brew)
powershell
# 必须用普通用户 PowerShell(不是管理员)
Set-ExecutionPolicy -Scope CurrentUser -ExecutionPolicy RemoteSigned
irm get.scoop.sh | iex
# 安装常用依赖
scoop install gh ffmpeg python
安装完后重新检测
powershell
openclaw doctor
11. 常用命令速查
| 命令 | 说明 |
|---|---|
openclaw gateway |
前台启动 Gateway |
openclaw gateway install |
安装为系统服务(开机自启) |
openclaw dashboard |
自动用 token 打开浏览器面板 |
openclaw onboard |
重新运行初始化向导 |
openclaw doctor |
健康检查与依赖检测 |
openclaw config get |
查看当前配置 |
openclaw config set x y |
修改配置项 |
openclaw hooks list |
查看已安装 hooks |
ollama list |
查看已下载模型 |
ollama ps |
查看模型运行状态及 GPU 占用 |
12. 常见问题 FAQ(实战踩坑)
Q1:powershell -c "irm ... | iex" 报「拒绝访问」
原因:在 PowerShell 7(pwsh)中嵌套调用 powershell.exe 会被拒绝。
解决 :直接在当前窗口运行,去掉外层 powershell -c:
powershell
irm https://astral.sh/uv/install.ps1 | iex
Q2:winget 找不到命令
原因:PATH 未刷新或当前会话不识别。
解决:用完整路径:
powershell
& "$env:LOCALAPPDATA\Microsoft\WindowsApps\winget.exe" install GitHub.cli
Q3:scoop install 报「管理员账户不允许」
原因:scoop 设计上禁止管理员账户安装。
解决:关闭管理员 PowerShell,打开普通用户 PowerShell 重新运行。
Q4:openclaw gateway start 报 Gateway service missing
原因 :服务未安装,gateway start 需要先 install。
解决 :直接用 openclaw gateway(不加 start)前台运行;或先执行 openclaw gateway install 再 start。
Q5:Agent 报错 Model context window too small (4096 tokens). Minimum is 16000
原因:Ollama 默认上下文只有 4096,OpenClaw 要求至少 16000。
解决 :按 [Step 6](#Step 6 "#8-step-6%E4%BF%AE%E5%A4%8D-ollama-%E4%B8%8A%E4%B8%8B%E6%96%87%E7%AA%97%E5%8F%A3%E5%BF%85%E5%81%9A") 创建扩展上下文版本的模型。这是 Windows 下最常见的必踩坑。
Q6:浏览器打开 localhost:18789 一直报 token_missing
原因:OpenClaw 默认开启 token 认证,不能直接访问裸地址。
解决 :用 openclaw dashboard 命令打开(自动带 token),或创建桌面快捷方式。
Q7:日志一直刷 Telegram 报错
原因:向导配置了 Telegram bot token 但网络不通。
解决:
powershell
openclaw config set channels.telegram.enabled false
Q8:Skills 安装全部失败 brew not installed
原因:brew 是 macOS 专属包管理器,Windows 没有。
解决:安装 scoop 替代(见 Step 8),或忽略------Skills 失败不影响主程序正常聊天。
13. 模型推荐选型
完整选型矩阵
| 模型 | 显存需求 | 速度(5090) | 中文 | 代码 | 推理 | 拉取命令 |
|---|---|---|---|---|---|---|
| qwen2.5:3b | 3 GB | 极快 | ollama pull qwen2.5:3b |
|||
| qwen2.5:7b | 6 GB | 很快 | ollama pull qwen2.5:7b |
|||
| qwen2.5:14b | 11 GB | 快 | ollama pull qwen2.5:14b |
|||
| deepseek-r1:32b | 20 GB | 中 | ollama pull deepseek-r1:32b |
|||
| qwen3.5:35b | 24 GB | 中 | ollama pull qwen3.5:35b |
|||
| qwen2.5-coder:32b | 20 GB | 中 | ollama pull qwen2.5-coder:32b |
重要:下载完模型后必须按 Step 6 创建 32k 上下文版本,否则 OpenClaw 无法正常使用!
14. openclaw.json 完整配置参考
以下为经过实战验证的完整配置文件(适配 qwen3.5:35b + 本地 Ollama):
json
{
"models": {
"mode": "merge",
"providers": {
"custom-127-0-0-1-11434": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "ollama",
"api": "openai-completions",
"models": [
{
"id": "qwen3.5-35b-32k",
"name": "Qwen3.5 35B 32K (Local)",
"reasoning": false,
"input": ["text"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 32768,
"maxTokens": 8192
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "custom-127-0-0-1-11434/qwen3.5-35b-32k"
},
"workspace": "C:\\Users\\{用户名}\\clawd",
"compaction": {
"mode": "safeguard"
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
"session": {
"dmScope": "per-channel-peer"
},
"hooks": {
"internal": {
"enabled": true,
"entries": {
"session-memory": { "enabled": true },
"command-logger": { "enabled": true }
}
}
},
"channels": {
"telegram": {
"enabled": false
}
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "loopback",
"auth": {
"mode": "token"
}
},
"skills": {
"install": {
"nodeManager": "npm"
}
}
}
总结
完成以上步骤后,你拥有了:
- 完全本地的 AI 助手,数据不出本机
- 完全免费,无需任何 API 费用
- 断网可用,不依赖任何外部服务
- 32K 上下文,可处理长文档、复杂任务
- 可扩展,支持 Skills 技能插件生态
下一步探索:
- 访问 ClawHub 安装更多社区 Skills
- 配置 Telegram Bot 实现手机端随时对话
- 设置定时任务实现自动化工作流
- 运行
openclaw security audit --deep加固安全配置
文档版本 :2026年2月(基于 吴佳浩OpenClaw 2026.2.26 实战整理) 官方文档 :openclaw.ai