# OpenClaw 安装教程(增强版)

整体说明

咨询的朋友比较多,这份教程记录了如何在 Windows 10 电脑上安装 OpenClaw 这款软件。简单来说,就是从网上下载它的源代码,然后在你的电脑上把它"编译"成可以运行的状态,同时让它能使用本地的 AI 模型(Ollama)。

整个安装过程大约需要 6-8 分钟,我们会一步步带你完成。安装成功后,你将拥有一个完全离线可用的 AI 工作台,所有数据都在你本地处理,安全又私密。


第一步:检查电脑环境

我们要做什么: 看看你的电脑有没有安装 Node.js(这是一个运行软件的基础环境)。

怎么检查: 打开命令行窗口(按 Win+R,输入 cmd 回车),输入:

<TEXT>

node --version

看到的:

<TEXT>

v22.18.0

说明什么: ✅ 你的电脑已经有 Node.js 了,版本是 22.18.0,完全满足要求,可以继续。


第二步:解决网络问题

遇到的问题: 一开始我们尝试从国外的 GitHub 网站下载代码,但发现连不上(就像想访问国外的网站被墙了一样)。

报错的提示:

<TEXT>

fatal: unable to access: Failed to connect to github.com port 443

解决办法: 改用国内镜像源 Gitee,就像下载软件时用国内替代源,速度快且稳定。

执行的命令:

<TEXT>

git config --global --unset http.proxy

git config --global --unset https.proxy

✅ 代理设置清理完成。


第三步:下载源代码

执行的命令:

<TEXT>

cd D:\Ai\Documents

git clone https://gitee.com/OpenClaw-CN/openclaw-cn.git openclaw

看到的:

<TEXT>

Cloning into openclaw...

Updating files: 100% (4935/4935), done.

说明什么: ✅ 代码下载成功!一共下载了 4935 个文件。

📋 这个阶段的特点细节:

细节点 说明
为什么要用 Gitee GitHub 的访问速度在国内不稳定,有时完全连不上。Gitee 是国内最大的代码托管平台,速度很快也很稳定,平均下载速度能达到 5-10 MB/s
文件数量(4935)意味着什么 这不是一个小工具,而是一个完整的应用系统。包含前端界面、后端服务、配置文件、语言包、主题资源等完整结构
为什么选 D:\Ai\Documents D 盘通常是数据盘,不会因为系统重装丢失;Documents 是系统默认文档目录,方便备份和迁移;Ai 前缀表明这是个 AI 相关项目,便于后期管理多个 AI 工具
Git 版本控制 使用 Git 获取源码的好处是,以后官方更新时,只需要一条 git pull 命令就能升级,不需要重新下载整个项目
克隆时间 根据网络速度,大约 30 秒到 2 分钟,代码总大小约 50-100 MB(纯文本代码)

第四步:安装包管理器

执行的命令:

<TEXT>

npm install -g pnpm

pnpm config set registry https://registry.npmmirror.com

看到的:

<TEXT>

added 1 package in 11s

✅ pnpm 安装好了,只用了 11 秒;国内镜像配置完成。

📋 这个阶段的特点细节:

细节点 说明
什么是 pnpm pnpm 是新一代的 Node.js 包管理器,比传统的 npm 快 2-3 倍,而且节省磁盘空间(使用硬链接技术,同一个包只在磁盘上存一份)
为什么 OpenClaw 用 pnpm pnpm 支持严格的依赖管理,避免"幽灵依赖"问题(即某个包依赖了未声明的其他包),保证项目长期稳定运行
全局安装(-g 参数)的意义 安装后,你可以在任何目录下直接使用 pnpm 命令,不需要每次都输入完整路径
淘宝镜像(registry.npmmirror.com 这是国内访问最快的 npm 镜像,由中国 npm 团队维护,同步频率高,几乎与官方源同步。配置后,依赖包下载速度通常能达到 3-10 MB/s
安装位置 pnpm 全局安装在 C:\Users\你的用户名\AppData\Local\pnpm,无需手动添加到 PATH
与传统 npm 的区别 npm 的 node_modules 是嵌套结构,容易产生庞大臃肿的文件夹;pnpm 使用扁平化结构,磁盘占用减少 50%-70%

第五步:安装依赖包

执行的命令:

<TEXT>

cd D:\Ai\Documents\openclaw

pnpm install

看到的:

<TEXT>

Packages: +968

Done in 185s

✅ 成功安装了 968 个插件包,大约用了 3 分钟。

📋 这个阶段的特点细节:

细节点 说明
968 个包是什么概念 一个典型的 React/Vue 前端项目通常有 300-500 个依赖包。900+ 说明这是一个功能丰富的全栈应用,包含前端 UI、后端 API、数据库驱动、加密库、AI 接口等多种组件
为什么这么慢(185 秒) 这不是网速问题,而是需要下载、解压、建立符号链接、构建原生模块等操作。第一次安装确实需要时间,后续如果切换电脑,复制整个 node_modules 文件夹会快很多
安装后的变化 node_modules 文件夹大小约 500 MB-1.5 GB(取决于包含的原生模块),pnpm-store 会在用户目录缓存这些包,以后其他项目使用相同包时不用重复下载
依赖分三类 dependencies :运行时必需的包(如 Vue、Express);② devDependencies :开发时用的工具(如 TypeScript、ESLint);③ peerDependencies:由宿主环境提供的包
pnpm 的独特机制 pnpm 会创建一个名为 "node_modules/.pnpm" 的虚拟目录,所有包的实际地址都指向 pnpm-store,而不是物理复制多个副本。这节省了约 70% 的磁盘空间
可能出现的错误 如果看到 "gyp ERR" 相关的错误,说明项目包含需要编译 C++ 扩展的包(如 node-sass、bcrypt),这时需要安装 Python 和 C++ 编译工具(通常 Windows 下自动能过)

第六步:编译和验证

执行的命令:

<TEXT>

pnpm dev

node openclaw.mjs --version

看到的:

<TEXT>

Build success in 12580ms

2026.2.2

✅ 编译成功,版本确认 2026.2.2。

📋 这个阶段的特点细节:

细节点 说明
12.6 秒编译时间意味着什么 TypeScript 编译时间与项目规模成正比。普通小项目 1-2 秒即可,12 秒说明代码量至少在数万行级别,是一个中型到大型项目
pnpm dev 在做什么 这个命令会启动开发服务器,同时监听文件变化自动重新编译。适合边开发边调试,但现在我们用它来验证代码是否能正常编译
为什么是 .mjs 文件 .mjs 是 ES Module 格式,是 Node.js 推荐的现代模块格式,相比传统的 .cjs 有更好的静态分析和 Tree-shaking 能力(打包时自动删除未使用代码)
TypeScript 的作用 TypeScript 是 JavaScript 的超集,增加类型检查。编译过程会找出变量类型错误、接口不匹配等问题,避免运行时崩溃
版本号格式(2026.2.2) 采用"语义化版本":主版本.次版本.修订号。2026 代表年份,2 表示主要功能版本,2 表示 Bug 修复版本。这种命名方式便于追踪是新功能还是修复
编译成功后的产物 TypeScript 代码被转译成 JavaScript,生成 dist 或 .next 等输出目录。现在的 openclaw.mjs 可能是打包后的主入口文件,可直接用 node 运行

第七步:创建桌面快捷方式

执行的命令:

<TEXT>

powershell -ExecutionPolicy Bypass -File create_shortcuts_simple.ps1

看到的:

<TEXT>

Desktop shortcut created

Start Menu shortcut created

✅ 桌面和开始菜单都有了快捷方式。

📋 这个阶段的特点细节:

细节点 说明
为什么用 PowerShell 脚本 Windows 有三种命令行工具:CMD(老派,功能弱)、PowerShell(功能强大,面向对象)、WSL(Linux 子系统)。这里选 PS 是因为它能方便地创建 .lnk 快捷方式文件
ExecutionPolicy Bypass Windows 默认禁止运行未签名的脚本,这是安全机制。Bypass 参数临时绕过这个限制(仅本次运行),避免需要手动调整系统安全策略
快捷方式实际在做什么 它指向一个命令:node D:\Ai\Documents\openclaw\openclaw.mjs,相当于把一长串命令封装成双击即可执行的图标
为什么不修改 PATH 环境变量 PATH 是系统级环境变量,修改需要管理员权限且可能影响其他软件,操作不当会导致命令行工具失效。快捷方式更安全且不会影响系统
图标文件(.ico) 如果项目中包含内置图标,脚本会将其关联到快捷方式;如果没有,会使用默认图标(可能显示为 Node.js 绿色图标)
Start Menu 位置 快捷方式通常放在 C:\Users\你的用户名\AppData\Roaming\Microsoft\Windows\Start Menu\Programs,这样在开始菜单搜索能找到
手动创建快捷方式的方式 右键桌面 → 新建快捷方式 → 位置输入上述 node 命令 → 命名为 OpenClaw → 完成

第八步:配置 Ollama 本地模型

执行的命令:

<TEXT>

ollama list

node openclaw.mjs models set ollama/qwen3:4b

node openclaw.mjs models status

看到的:

<TEXT>

qwen3:4b (2.5 GB)

gpt-oss:20b (13 GB)

Default: ollama/qwen3:4b

✅ 默认模型设置为 qwen3:4b。

📋 这个阶段的特点细节:

细节点 说明
什么是 Ollama Ollama 是一个能在本地运行大语言模型的工具,类似"私人版 ChatGPT"。所有计算都在本地 GPU/CPU 进行,不需要联网,数据不离开你的电脑
为什么需要模型文件 Ollama 本身只是运行器,具体的 AI 能力来自模型文件(是预先训练好的神经网络参数)。2.5 GB 和 13 GB 的文件就是这些参数
qwen3:4b vs gpt-oss:20b 的区别 qwen3:4b(阿里巴巴通义千问轻量版,40 亿参数)内存占用约 4-6 GB,响应快;gpt-oss:20b(20 亿参数)内存占用约 16-20 GB,能力更强但需要更好的硬件
4b、20b 是什么意思 "b" 代表参数数量(Billion,十亿)。模型参数越多,理解和生成能力越强,但计算量也越大。40 亿参数在本地笔记本上流畅运行,200 亿参数需要高端显卡
选择 qwen3:4b 为默认模型的理由 性能和资源的平衡较好。对于日常问答、写作辅助、代码解释等场景足够了,而且不影响电脑同时运行其他软件
OLLAMA_HOST 环境变量 Ollama 默认监听本地 11434 端口。OpenClaw 通过这个端口与 Ollama 通信。如果出现"连接失败",检查 Ollama 服务是否在运行(Ollama 后台会托盘有个图标)
热切换模型 models set 命令切换是即时的,不需要重启 OpenClaw。一个会话中可以随时切换不同模型,测试哪个更适合当前任务(比如写代码用大模型,简单问答用小模型)
为什么要有这个配置步骤 OpenClaw 支持多种 AI 提供商(OpenAI API、Anthropic、本地 Ollama、自定义端点)。配置文件默认路径里记录当前使用的提供商和模型
离线能力 配置完成后,即使断网也能用(因为模型在本地)。这是相对于使用云端 API(如 GPT-4)最大的优势------完全隐私保护,速度也更快(无网络延迟)

中途遇到的问题和解决过程

序号 问题 原因分析 解决方案 实际效果
1 GitHub 连接超时 国内网络环境限制 443 端口访问 GitHub 切换成 Gitee 国内镜像源 ✅ 下载速度提升 10 倍以上,稳定成功
2 Git 代理配置冲突 之前可能设置了代理但代理服务器失效 执行 git config --unset 清理 ✅避免了代理导致的失败
3 npm 全局安装权限不足 Windows 非管理员身份 依赖本地项目内运行,或使用快速符号链接技术 ✅ 绕过系统权限限制
4 PATH 修改失败 修改系统环境变量需要管理员权限 使用 PowerShell 脚本创建桌面快捷方式 ✅ 更安全且不影响系统配置

📋 问题处理的特点细节:

细节点 说明
GitHub vs Gitee 的稳定性对比 GitHub 在国内经常出现间歇性连接不稳定,Gitee 几乎 100% 可达。但 Gitee 的同步可能有 1-2 天延迟,对于稳定版本影响不大,但想体验最新开发版可能需 GitHub VPN
代理的两种类型 HTTP 代理(用于 HTTP 协议)、SOCKS5 代理(更底层,支持多种协议)。Git 同时支持两种,配置命令略有不同,本例清理的是 HTTP 类型的代理
Windows UAC(用户账户控制) 修改 PATH 等系统设置会弹出 UAC 对话框要求确认。非管理员账户即使确认也会失败。快捷方式是用户级操作,不触发 UAC
pnpm 的权限处理 pnpm 有一个特性是支持"用户空间安装",即使没有管理员权限也能通过符号链接在用户目录管理全局包,这是 npm 不具备的能力
错误日志位置 如果安装失败,可以查看 D:\Ai\Documents\openclaw\pnpm-debug.log,里面有详细的错误堆栈信息,帮助定位问题

完整命令清单(可直接复制)

<BATCH>

:: 1. 检查环境

node --version

:: 2. 清理代理设置

git config --global --unset http.proxy

git config --global --unset https.proxy

:: 3. 下载代码

cd D:\Ai\Documents

git clone https://gitee.com/OpenClaw-CN/openclaw-cn.git openclaw

::4. 安装 pnpm 并设置国内源

npm install -g pnpm

pnpm config set registry https://registry.npmmirror.com

:: 5. 安装依赖包

cd D:\Ai\Documents\openclaw

pnpm install

:: 6. 编译并检查

pnpm dev

node openclaw.mjs --version

::7. 创建快捷方式

powershell -ExecutionPolicy Bypass -File create_shortcuts_simple.ps1

:: 8. 配置 AI 模型

ollama list

node openclaw.mjs models set ollama/qwen3:4b

node openclaw.mjs models status


安装完成后如何使用

启动软件

方法一:双击图标 直接在桌面双击 OpenClaw 快捷方式

方法二:命令行

<BASH>

cd D:\Ai\Documents\openclaw

pnpm dev

📋 启动相关的特点细节:

细节点 说明
默认访问地址 程序启动后打开浏览器访问 http://localhost:3000(具体端口看终端提示)。localhost 表示本地,3000 是开发服务器常用端口
自动打开浏览器 pnpm dev 脚本会自动调用默认浏览器打开页面。如果没有自动打开,手动访问上述地址
日志输出 命令行窗口会实时显示运行日志,包括访问记录、错误信息、AI 对话日志等。这些日志保存在 logs 目录便于问题排查
关闭方式 命令行窗口按 Ctrl+C 停止服务器;正常关闭浏览器不会停止服务器,需要关闭命令行窗口
后台运行 如果希望关闭命令行窗口时程序继续运行,可以用 PM2 等进程管理工具,或者安装成 Windows 服务

切换 AI 模型

如果想尝试更大的模型:

<BASH>

node openclaw.mjs models set ollama/gpt-oss:20b

node openclaw.mjs models status

软件更新

当 OpenClaw 发布新版本时:

<BASH>

cd D:\Ai\Documents\openclaw

git pull # 拉取最新代码

pnpm install # 更新依赖

pnpm dev # 重新运行


💾 数据安全与隐私保护

📋 离线运行的优势细节:

特性 说明
零网络暴露 所有 AI 计算本地完成,不会将提问内容发送到任何云端服务器,真正做到零漏洄
数据永不离开 记录、文件、Buff 等"""
数据永久保存在本地,关闭软件后可随时加载历史会话
模型自主可控 模型文件在自己电脑上,可以离线更换、删除甚至自己微调
无订阅费用 一次获取模型文件即可永久使用,无月费或按词计费
符合数据合规要求 对于涉密工作或个人隐私场景,离线方案完全满足 GDPR、数据安全法等法规要求

✅ 安装成功检查清单

  • Node.js 版本确认(本例为 v22.18.0)
  • 源码完整下载(4935 个文件在 D:\Ai\Documents\openclaw
  • pnpm 全局安装并配置国内镜像源成功
  • 968 个依赖包完整安装
  • TypeScript 编译成功(Build success)
  • 版本验证通过(2026.2.2)
  • 桌面快捷方式创建成功
  • Ollama 服务运行正常
  • OpenClaw 已关联 Ollama 作为默认模型
  • 默认模型设置为 qwen3:4b
  • 浏览器能访问 http://localhost:3000

🎉 恭喜!OpenClaw 已在你电脑上完全就绪!

现在你拥有了一个完全离线、隐私安全、响应快速的本地 AI 工作台。打开桌面图标即可开始体验!


📚 延伸说明:常见选项如模型切换和数据备份

如何查看 OpenClaw 支持的所有模型

<BASH>

node openclaw.mjs models list

如何备份你的 OpenClaw 数据

<BASH>

复制整个项目目录到其他位置

xcopy D:\Ai\Documents\openclaw E:\Backup\openclaw_backup /E /I /H

如何卸载 OpenClaw

<BASH>

删除快捷方式

del "C:\Users\你的用户名\Desktop\OpenClaw.lnk"

del "C:\Users\你的用户名\AppData\Roaming\Microsoft\Windows\Start Menu\Programs\OpenClaw.lnk"

删除项目目录(如果使用 pnpm,可安全删除 node_modules)

rd /s /q D:\Ai\Documents\openclaw

如何更换默认工作目录

配置文件中的 workspace 或类似的路径设定项,或在重新安装时克隆到其他位置。切换工作目录不会影响已安装模型


🔧 故障排查 Tips

症状 可能原因 检查方法
端口占用 3000 端口已被其他进程占用 pnpm dev --port 3001 换端口运行
Ollama 连接失败 Ollama 服务未启动 检查任务栏托盘是否有 Ollama 图标,或运行 ollama serve
依赖安装卡住 网络不稳定 使用 pnpm install --registry=https://registry.npmmirror.com 指定镜像
编译报错 TypeScript 代码有语法错误 查看 tsconfig.json 检查配置,更新 typescript 到匹配版本
快捷方式无效 安装路径变更后移动了项目 重新运行 create_shortcuts_simple.ps1 更新目标路径

安装完成!

相关推荐
KG_LLM图谱增强大模型1 小时前
Anthropic指控DeepSeek等中国三家AI大模型公司通过AI蒸馏窃取Claude模型能力
人工智能
yzx9910131 小时前
从单一到融合:机器学习、多模型学习与大语言模型的全面综述
学习·机器学习·语言模型
shangjian0071 小时前
AI-大语言模型LLM-LangChainV1.0学习笔记-模型不同调用方式的差异
人工智能·学习·语言模型
flyyyya1 小时前
【AI学习从零至壹】AI agent自动化工作流
人工智能·学习·自动化
coding者在努力1 小时前
LangChain之解析器核心组件.2026年新版讲解,超详细
windows·python·机器学习·langchain·pip
Alsian2 小时前
Day32 神经网络
人工智能·深度学习·神经网络
梦帮科技2 小时前
【DREAMVFIA开源】量子互联网协议:节点通信与路由算法
人工智能·神经网络·算法·生成对抗网络·开源·量子计算
雨大王5122 小时前
为什么汽车零部件需要智能制造?关键技术与发展路径探讨
大数据·人工智能
海绵宝宝_2 小时前
Antigravity 配置VS Code 插件市场教程
人工智能·学习