OpenClaw Windows 完整安装与本地模型配置教程(实战版)

OpenClaw Windows 完整安装与本地模型配置教程(实战版)

说实话这玩意火了有一段时间了但是虽然作为从业者,我至今还没用过,今天就边安装边记录出一篇记录文档吧吗,这里仅仅只会记录我安装的出现的问题,破玩意还是mac安装方便,如果还么用过的同学可以看看,用过的就算了,我也只是今天先装上有空再去看看能干点啥这玩意,好的就这样。 作者:吴佳浩

撰稿时间:2026-2-27

最后更新:2026-2-28

测试模型: Qwen3.5-35B(ollama 量化的版本我比较懒就用这个你们自己随意)

OpenClaw(前身为 ClawdBot / Moltbot)是一款开源的本地自托管 AI 个人智能助手平台,支持接入 Claude、GPT、Qwen、DeepSeek、Ollama 本地模型等,可实现文件操作、终端执行、浏览器控制、定时任务等全场景自动化。

本文基于 RTX 5090 + 96GB 内存 + Windows 11 真实环境实战整理,包含所有踩坑记录与解决方案。


目录

  1. 系统要求
  2. 整体流程概览
  3. [Step 1:安装 Node.js(≥ 22)](#Step 1:安装 Node.js(≥ 22) "#3-step-1%E5%AE%89%E8%A3%85-nodejs--22")
  4. [Step 2:安装 OpenClaw](#Step 2:安装 OpenClaw "#4-step-2%E5%AE%89%E8%A3%85-openclaw")
  5. [Step 3:运行初始化向导(完整实战)](#Step 3:运行初始化向导(完整实战) "#5-step-3%E8%BF%90%E8%A1%8C%E5%88%9D%E5%A7%8B%E5%8C%96%E5%90%91%E5%AF%BC%E5%AE%8C%E6%95%B4%E5%AE%9E%E6%88%98")
  6. [Step 4:安装 Ollama(本地模型运行环境)](#Step 4:安装 Ollama(本地模型运行环境) "#6-step-4%E5%AE%89%E8%A3%85-ollama%E6%9C%AC%E5%9C%B0%E6%A8%A1%E5%9E%8B%E8%BF%90%E8%A1%8C%E7%8E%AF%E5%A2%83")
  7. [Step 5:下载本地模型](#Step 5:下载本地模型 "#7-step-5%E4%B8%8B%E8%BD%BD%E6%9C%AC%E5%9C%B0%E6%A8%A1%E5%9E%8B")
  8. [Step 6:修复 Ollama 上下文窗口(必做)](#Step 6:修复 Ollama 上下文窗口(必做) "#8-step-6%E4%BF%AE%E5%A4%8D-ollama-%E4%B8%8A%E4%B8%8B%E6%96%87%E7%AA%97%E5%8F%A3%E5%BF%85%E5%81%9A")
  9. [Step 7:启动 Gateway 与打开 Dashboard](#Step 7:启动 Gateway 与打开 Dashboard "#9-step-7%E5%90%AF%E5%8A%A8-gateway-%E4%B8%8E%E6%89%93%E5%BC%80-dashboard")
  10. [Step 8:安装 Skills 依赖](#Step 8:安装 Skills 依赖 "#10-step-8%E5%AE%89%E8%A3%85-skills-%E4%BE%9D%E8%B5%96")
  11. 常用命令速查
  12. [常见问题 FAQ(实战踩坑)](#常见问题 FAQ(实战踩坑) "#12-%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98-faq%E5%AE%9E%E6%88%98%E8%B8%A9%E5%9D%91")
  13. 模型推荐选型
  14. [openclaw.json 完整配置参考](#openclaw.json 完整配置参考 "#14-openclawijson-%E5%AE%8C%E6%95%B4%E9%85%8D%E7%BD%AE%E5%8F%82%E8%80%83")

1. 系统要求

项目 最低要求 推荐配置
操作系统 Windows 10 64位 Windows 11
Node.js ≥ 22.0 最新 LTS
内存 8 GB RAM 16 GB RAM+
显卡显存(GPU推理) 8 GB VRAM(7B模型) 16 GB+ VRAM
磁盘空间 10 GB 可用 50 GB+
网络 安装时需联网 ---

注意:若无独立显卡,也可使用 CPU 进行推理,但速度较慢。建议配合 NVIDIA 显卡使用 GPU 加速。


2. 整体流程概览

flowchart TD A[" Windows 环境"] --> B["安装 Node.js ≥ 22"] B --> C["安装 OpenClaw\nnpm install -g openclaw"] C --> D["运行初始化向导\nopenclaw onboard"] D --> E["选择 Custom Provider\n接入 Ollama 本地模型"] E --> F["安装 Ollama\n下载目标模型"] F --> G[" 修复上下文窗口\nollama create 32k版本"] G --> H["编辑 openclaw.json\n指向新模型 ID"] H --> I["openclaw gateway\n启动服务"] I --> J["openclaw dashboard\n打开 Web UI"] J --> K[" 本地 AI 助手就绪"] style A fill:#1a1a2e,color:#fff style G fill:#c62828,color:#fff style K fill:#00aa55,color:#fff

3. Step 1:安装 Node.js(≥ 22)

方法一:官网下载(推荐)

  1. 打开浏览器访问:nodejs.org
  2. 下载 LTS 版本(确保版本号 ≥ 22)
  3. 双击安装包,一路「Next」完成安装
  4. 安装完成后,打开 PowerShell 验证:
powershell 复制代码
node --version
# 输出类似:v22.11.0 

npm --version
# 输出类似:10.9.0 

方法二:winget 安装

powershell 复制代码
# 以管理员身份运行 PowerShell
winget install OpenJS.NodeJS.LTS

实战提示 :如果 winget 提示找不到命令,用完整路径调用:

powershell 复制代码
& "$env:LOCALAPPDATA\Microsoft\WindowsApps\winget.exe" install OpenJS.NodeJS.LTS

4. Step 2:安装 OpenClaw

A. 方式一:一键脚本(推荐)

打开 PowerShell,执行:

powershell 复制代码
# 先设置执行策略
Set-ExecutionPolicy -Scope CurrentUser -ExecutionPolicy RemoteSigned

# 运行安装脚本
irm https://openclaw.ai/install.ps1 | iex

实战踩坑 :不要用 powershell -c "irm ... | iex" 嵌套写法,在 PowerShell 7(pwsh)中会报「拒绝访问」。直接在当前窗口运行 irm ... | iex 即可。

B. 方式二:npm 全局安装

powershell 复制代码
# 国内用户先切换镜像源(加速下载)
npm config set registry https://registry.npmmirror.com

# 全局安装
npm install -g openclaw

# 验证
openclaw --version

5. Step 3:运行初始化向导(完整实战)

powershell 复制代码
openclaw onboard

向导每一步怎么选

flowchart TD A["openclaw onboard"] --> B["安全警告\n→ 输入 Yes 继续"] B --> C["选择模式\n→ QuickStart"] C --> D["Model Provider\n→ Custom Provider\n 不要选 Ollama 内置选项"] D --> E["API Base URL\n→ http://127.0.0.1:11434/v1"] E --> F["API Key\n→ ollama (随便填,本地不验证)"] F --> G["Endpoint Compatibility\n→ OpenAI-compatible"] G --> H["Model ID\n→ 填你已 pull 的模型名\n如 qwen3.5:35b"] H --> I["Verification successful "] I --> J["Endpoint ID\n→ 直接回车用默认"] J --> K["Model alias\n→ 随意,如 qwen3.5-35b"] K --> L["Select Channel\n→ Skip for now"] L --> M["Configure Skills\n→ Yes"] M --> N["Install dependencies\n→ 勾选需要的,见下表"] N --> O["API Keys\n→ 全部 No(本地不需要)"] O --> P["Enable Hooks\n→ 勾选 session-memory + command-logger"] P --> Q["How to hatch\n→ Open the Web UI"] Q --> R[" 向导完成,浏览器自动打开"] style I fill:#00aa55,color:#fff style R fill:#00aa55,color:#fff style D fill:#c62828,color:#fff

Skills 推荐勾选清单

Skill 推荐 说明
clawhub 技能商店,必装
nano-pdf PDF 阅读分析
summarize 网页/文档总结
github GitHub 操作
openai-whisper 本地语音识别
video-frames 视频帧分析

实战说明 :这些 Skills 在 Windows 上会提示 brew not installed 安装失败,这是正常现象(brew 是 macOS 包管理器)。向导完成后按 [Step 8](#Step 8 "#10-step-8%E5%AE%89%E8%A3%85-skills-%E4%BE%9D%E8%B5%96") 手动安装 Windows 等效依赖即可。

API Key 全部跳过

向导会依次询问以下 Key,全部选 No(本地模型不需要任何云端 API):

  • GOOGLE_PLACES_API_KEY → No
  • GEMINI_API_KEY → No
  • NOTION_API_KEY → No
  • OPENAI_API_KEY → No
  • ELEVENLABS_API_KEY → No

6. Step 4:安装 Ollama(本地模型运行环境)

  1. 访问 ollama.com
  2. 点击 Download for Windows 下载 OllamaSetup.exe
  3. 双击安装,完成后 Ollama 自动在后台运行(系统托盘有 图标)

验证

powershell 复制代码
ollama --version
# 输出:ollama version 0.x.x 

curl http://localhost:11434
# 输出:Ollama is running 

7. Step 5:下载本地模型

按显存选择模型

graph TD A["选择模型"] --> B{"显卡显存大小?"} B -- "< 8 GB 或无显卡" --> C["qwen2.5:3b\n~2GB 显存\nCPU 可运行"] B -- "8 GB" --> D["qwen2.5:7b\n~5GB 显存\n均衡推荐"] B -- "16 GB" --> E["qwen2.5:14b\n~10GB 显存\n效果更好"] B -- "24 GB+" --> F["deepseek-r1:32b\n~20GB 显存\n推理最强"] B -- "32 GB " --> G["qwen3.5:35b\n~24GB 显存\n消费级最强"] style G fill:#c62828,color:#fff style F fill:#7b2d8b,color:#fff style E fill:#1e6091,color:#fff style D fill:#2d6a4f,color:#fff

下载命令

powershell 复制代码
# 32GB 显存用户推荐
ollama pull qwen3.5:35b

# 其他选项
ollama pull qwen2.5:7b          # 入门推荐
ollama pull qwen2.5:32b         # 24GB 显存
ollama pull deepseek-r1:32b     # 强推理
ollama pull qwen2.5-coder:32b   # 代码专用

# 查看已下载模型
ollama list

8. Step 6:修复 Ollama 上下文窗口(必做!)

这是最容易踩的坑!

Ollama 默认上下文窗口只有 4096 tokens ,而 OpenClaw 要求最少 16000 tokens。不修复会报错:

powershell 复制代码
Agent failed before reply: Model context window too small (4096 tokens). Minimum is 16000.

解决方案:创建扩展上下文版本的模型

powershell 复制代码
# 第一步:写入 Modelfile(注意用反引号换行)
"FROM qwen3.5:35b`nPARAMETER num_ctx 32768" | Out-File -FilePath "F:\Modelfile" -Encoding utf8

# 第二步:确认内容正确
Get-Content "F:\Modelfile"
# 应该输出:
# FROM qwen3.5:35b
# PARAMETER num_ctx 32768

# 第三步:创建新模型(带 -32k 后缀区分)
ollama create qwen3.5-35b-32k -f "F:\Modelfile"
# 输出 success 表示成功 

其他模型同理 ,只需修改 FROM 后面的模型名:

powershell 复制代码
"FROM qwen2.5:7b`nPARAMETER num_ctx 32768" | Out-File -FilePath "F:\Modelfile" -Encoding utf8
ollama create qwen2.5-7b-32k -f "F:\Modelfile"

更新 openclaw.json 指向新模型

powershell 复制代码
# 打开配置文件
notepad $env:USERPROFILE\.openclaw\openclaw.json

Ctrl+H 查找替换,把所有 qwen3.5:35b 改为 qwen3.5-35b-32k,重点修改两处:

json 复制代码
"id": "qwen3.5-35b-32k"
"primary": "custom-127-0-0-1-11434/qwen3.5-35b-32k"

同时把 maxTokens 改大:

json 复制代码
"maxTokens": 8192

9. Step 7:启动 Gateway 与打开 Dashboard

启动 Gateway

powershell 复制代码
openclaw gateway

正常启动的日志特征

powershell 复制代码
 [gateway] agent model: custom-127-0-0-1-11434/qwen3.5-35b-32k
 [gateway] listening on ws://127.0.0.1:18789
 [browser/server] Browser control listening on http://127.0.0.1:18791/
 [hooks] loaded 4 internal hook handlers

注意 :如果看到 openclaw gateway start 提示 Gateway service missing,直接用 openclaw gateway(不加 start)即可。

打开 Dashboard(三种方式)

方式一:命令自动打开(推荐,自动带 token)

powershell 复制代码
# 新开一个 PowerShell 窗口执行
openclaw dashboard

方式二:手动复制带 token 的链接

向导完成时终端会显示:

powershell 复制代码
http://127.0.0.1:18789/#token=xxxxxxxxxxxxxxxxxxxxxxxx

复制这个完整链接(含 #token=...)粘到浏览器打开。

方式三:创建桌面快捷方式(一劳永逸)

powershell 复制代码
# 替换下面的 token 为你自己的
$token = "你的token字符串"
$url = "http://127.0.0.1:18789/#token=$token"
$shell = New-Object -ComObject WScript.Shell
$shortcut = $shell.CreateShortcut("$env:USERPROFILE\Desktop\OpenClaw.url")
$shortcut.TargetPath = $url
$shortcut.Save()

桌面生成 OpenClaw.url 图标,双击直接进入,再也不用记 token。

关于 Token 认证的说明

OpenClaw 默认启用 token 认证,原因是它拥有文件读写、终端执行、浏览器控制等高权限能力,token 防止局域网内其他人控制你的电脑。

如果只是本机自用,可以关闭:

powershell 复制代码
openclaw config set gateway.auth.mode none

关闭后直接访问 http://127.0.0.1:18789 无需 token。

设置开机自启

powershell 复制代码
# 安装为 Windows 计划任务
openclaw gateway install

# 立即启动
schtasks /Run /TN "OpenClaw Gateway"

10. Step 8:安装 Skills 依赖

Windows 上没有 brew,需要手动安装等效依赖。

graph LR A["Skills 安装失败"] --> B{"缺少什么?"} B -- "brew not installed" --> C["用 scoop 替代\n或手动下载安装包"] B -- "uv not installed" --> D["irm astral.sh/uv | iex"] B -- "gh not found" --> E["scoop install gh\n或官网下载 msi"] C --> F[" Skills 可用"] D --> F E --> F

安装 uv(修复 nano-pdf)

powershell 复制代码
# 直接在当前 PowerShell 窗口执行(不要加 powershell -c 前缀)
irm https://astral.sh/uv/install.ps1 | iex

# 验证
uv --version
# 输出:uv 0.10.x 

安装 scoop(Windows 替代 brew)

powershell 复制代码
# 必须用普通用户 PowerShell(不是管理员)
Set-ExecutionPolicy -Scope CurrentUser -ExecutionPolicy RemoteSigned
irm get.scoop.sh | iex

# 安装常用依赖
scoop install gh ffmpeg python

安装完后重新检测

powershell 复制代码
openclaw doctor

11. 常用命令速查

mindmap root((OpenClaw\n常用命令)) 服务管理 openclaw gateway openclaw gateway install openclaw gateway status 配置管理 openclaw onboard openclaw config get openclaw config set openclaw doctor 模型管理 ollama list ollama pull ollama create ollama ps 面板访问 openclaw dashboard Hooks管理 openclaw hooks list openclaw hooks enable openclaw hooks disable
命令 说明
openclaw gateway 前台启动 Gateway
openclaw gateway install 安装为系统服务(开机自启)
openclaw dashboard 自动用 token 打开浏览器面板
openclaw onboard 重新运行初始化向导
openclaw doctor 健康检查与依赖检测
openclaw config get 查看当前配置
openclaw config set x y 修改配置项
openclaw hooks list 查看已安装 hooks
ollama list 查看已下载模型
ollama ps 查看模型运行状态及 GPU 占用

12. 常见问题 FAQ(实战踩坑)

Q1:powershell -c "irm ... | iex" 报「拒绝访问」

原因:在 PowerShell 7(pwsh)中嵌套调用 powershell.exe 会被拒绝。

解决 :直接在当前窗口运行,去掉外层 powershell -c

powershell 复制代码
irm https://astral.sh/uv/install.ps1 | iex

Q2:winget 找不到命令

原因:PATH 未刷新或当前会话不识别。

解决:用完整路径:

powershell 复制代码
& "$env:LOCALAPPDATA\Microsoft\WindowsApps\winget.exe" install GitHub.cli

Q3:scoop install 报「管理员账户不允许」

原因:scoop 设计上禁止管理员账户安装。

解决:关闭管理员 PowerShell,打开普通用户 PowerShell 重新运行。


Q4:openclaw gateway startGateway service missing

原因 :服务未安装,gateway start 需要先 install。

解决 :直接用 openclaw gateway(不加 start)前台运行;或先执行 openclaw gateway install 再 start。


Q5:Agent 报错 Model context window too small (4096 tokens). Minimum is 16000

原因:Ollama 默认上下文只有 4096,OpenClaw 要求至少 16000。

解决 :按 [Step 6](#Step 6 "#8-step-6%E4%BF%AE%E5%A4%8D-ollama-%E4%B8%8A%E4%B8%8B%E6%96%87%E7%AA%97%E5%8F%A3%E5%BF%85%E5%81%9A") 创建扩展上下文版本的模型。这是 Windows 下最常见的必踩坑


Q6:浏览器打开 localhost:18789 一直报 token_missing

原因:OpenClaw 默认开启 token 认证,不能直接访问裸地址。

解决 :用 openclaw dashboard 命令打开(自动带 token),或创建桌面快捷方式。


Q7:日志一直刷 Telegram 报错

原因:向导配置了 Telegram bot token 但网络不通。

解决

powershell 复制代码
openclaw config set channels.telegram.enabled false

Q8:Skills 安装全部失败 brew not installed

原因:brew 是 macOS 专属包管理器,Windows 没有。

解决:安装 scoop 替代(见 Step 8),或忽略------Skills 失败不影响主程序正常聊天。


13. 模型推荐选型

完整选型矩阵

模型 显存需求 速度(5090) 中文 代码 推理 拉取命令
qwen2.5:3b 3 GB 极快 ollama pull qwen2.5:3b
qwen2.5:7b 6 GB 很快 ollama pull qwen2.5:7b
qwen2.5:14b 11 GB ollama pull qwen2.5:14b
deepseek-r1:32b 20 GB ollama pull deepseek-r1:32b
qwen3.5:35b 24 GB ollama pull qwen3.5:35b
qwen2.5-coder:32b 20 GB ollama pull qwen2.5-coder:32b

重要:下载完模型后必须按 Step 6 创建 32k 上下文版本,否则 OpenClaw 无法正常使用!


14. openclaw.json 完整配置参考

以下为经过实战验证的完整配置文件(适配 qwen3.5:35b + 本地 Ollama):

json 复制代码
{
  "models": {
    "mode": "merge",
    "providers": {
      "custom-127-0-0-1-11434": {
        "baseUrl": "http://127.0.0.1:11434/v1",
        "apiKey": "ollama",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3.5-35b-32k",
            "name": "Qwen3.5 35B 32K (Local)",
            "reasoning": false,
            "input": ["text"],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 32768,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "custom-127-0-0-1-11434/qwen3.5-35b-32k"
      },
      "workspace": "C:\\Users\\{用户名}\\clawd",
      "compaction": {
        "mode": "safeguard"
      },
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "session": {
    "dmScope": "per-channel-peer"
  },
  "hooks": {
    "internal": {
      "enabled": true,
      "entries": {
        "session-memory": { "enabled": true },
        "command-logger": { "enabled": true }
      }
    }
  },
  "channels": {
    "telegram": {
      "enabled": false
    }
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token"
    }
  },
  "skills": {
    "install": {
      "nodeManager": "npm"
    }
  }
}

总结

完成以上步骤后,你拥有了:

  • 完全本地的 AI 助手,数据不出本机
  • 完全免费,无需任何 API 费用
  • 断网可用,不依赖任何外部服务
  • 32K 上下文,可处理长文档、复杂任务
  • 可扩展,支持 Skills 技能插件生态
graph LR A[" OpenClaw\n本地 AI 助手"] --> B["文件管理"] A --> C["代码生成"] A --> D["网页控制"] A --> E["定时任务"] A --> F[" 多平台聊天"] A --> G["文档分析"] style A fill:#4a0e8f,color:#fff

下一步探索:

  • 访问 ClawHub 安装更多社区 Skills
  • 配置 Telegram Bot 实现手机端随时对话
  • 设置定时任务实现自动化工作流
  • 运行 openclaw security audit --deep 加固安全配置

文档版本 :2026年2月(基于 吴佳浩OpenClaw 2026.2.26 实战整理) 官方文档openclaw.ai

相关推荐
用户479492835691514 小时前
[开源分享] Agent 指挥 Agent,我做了一个让 Claude Code / Codex / Gemini/... 组成"军团"并行干活的工具
aigc·openai·claude
王小酱17 小时前
Everything Claude Code 完全长篇指南
openai·ai编程·aiops
用户479492835691517 小时前
像 Tech Lead 一样管理 AI Agent:一条命令,并行执行,交叉验证
aigc·openai·agent
树獭叔叔17 小时前
06-大模型如何"学习":从梯度下降到AdamW优化器
后端·aigc·openai
王小酱18 小时前
Everything Claude Code 速查指南
openai·ai编程·aiops
FinClip1 天前
财富管理奇点已到:AI让投资顾问以一当百
openai
吴佳浩1 天前
《大模型的文件形态:Qwen3 文件结构与计算流程深度拆解》
人工智能·llm
EdisonZhou2 天前
MAF快速入门(17)用户智能体交互协议AG-UI(中)
llm·aigc·agent
ssshooter2 天前
免费和付费 AI API 选择指南
人工智能·aigc·openai