OpenClaw 完整安装实施教程(Windows + Ollama 本地模型)
- 小龙虾完整安装实施教程
-
- 一、系统与环境要求
- [二、第一步:安装 Ollama(本地大模型服务)](#二、第一步:安装 Ollama(本地大模型服务))
-
- [1. 安装 Ollama](#1. 安装 Ollama)
- [2. 拉取本地模型(以 qwen2:7b 为例)](#2. 拉取本地模型(以 qwen2:7b 为例))
- [3. 验证 Ollama 运行](#3. 验证 Ollama 运行)
- [三、第二步:安装 OpenClaw](#三、第二步:安装 OpenClaw)
-
- [1. 管理员权限打开 PowerShell](#1. 管理员权限打开 PowerShell)
- [2. 允许脚本执行(解决权限报错)](#2. 允许脚本执行(解决权限报错))
- [3. 一键安装 OpenClaw(官方脚本)](#3. 一键安装 OpenClaw(官方脚本))
- [4. 验证安装](#4. 验证安装)
- [四、第三步:OpenClaw 初始化配置](#四、第三步:OpenClaw 初始化配置)
-
- [1. 启动配置向导](#1. 启动配置向导)
- [2. 配置步骤(按提示选择,全程无脑操作)](#2. 配置步骤(按提示选择,全程无脑操作))
- 五、第四步:手动优化配置(关键,解决模型报错)
-
- [1. 找到配置文件路径](#1. 找到配置文件路径)
- [2. 替换为推荐配置(直接复制覆盖)](#2. 替换为推荐配置(直接复制覆盖))
- [六、第五步:启动与使用 OpenClaw](#六、第五步:启动与使用 OpenClaw)
-
- [1. 启动 OpenClaw 网关](#1. 启动 OpenClaw 网关)
- [2. 访问 Web UI(推荐,可视化操作)](#2. 访问 Web UI(推荐,可视化操作))
- [3. 命令行聊天(可选)](#3. 命令行聊天(可选))
- [4. 关键说明(重要,避坑!)](#4. 关键说明(重要,避坑!))
- 七、常用命令汇总(速查)
- 八、常见问题与解决方案(避坑必看)
-
- [1. Ollama 连接失败](#1. Ollama 连接失败)
- [2. 模型不显示、无法调用](#2. 模型不显示、无法调用)
- [3. 端口占用(提示"port 18789 is in use")](#3. 端口占用(提示“port 18789 is in use”))
- [4. /exec 指令不自动执行](#4. /exec 指令不自动执行)
- 九、总结
小龙虾完整安装实施教程
OpenClaw(俗称 "小龙虾")是一款开源、本地优先、以任务执行为核心的 AI 智能体(Agent)框架,核心价值是将 AI 从 "只给建议" 的对话模式,升级为 "动手执行" 的自动化模式
一、OpenClaw 核心使用场景
- 个人效率与生活助理(最普及)
文件与电脑自动化:批量重命名、分类整理、格式转换、定时备份、清理磁盘。
办公内容生成:周报 / 日报 / 总结自动撰写、邮件收发与分类、日程管理、会议纪要。
生活管家:健康记录分析、智能家居控制、快递追踪、旅行规划、提醒服务。
内容创作:小红书 / 公众号 / 短视频文案、广告语、标题、海报文案批量生成。 - 开发者与 IT 运维
代码助手:自然语言生成脚本 / 函数、调试、优化、单元测试、文档生成。
运维自动化:服务器巡检、日志分析、服务重启、环境部署、CI/CD 流程、监控告警。
数据处理:API / 数据库取数、清洗、去重、格式转换、报表生成。 - 企业办公与业务自动化(商业化主力)
财务 / HR 自动化:发票核验、银行对账、简历筛选、面试邀约、考勤统计、入离职办理。
营销 / 电商自动化:社媒内容生成 + 发布、评论回复、广告数据监控、订单处理、售后自动回复。
跨系统流程:ERP/CRM 数据同步、审批流自动处理、RFP / 标书自动填充。
团队协作中枢:任务分配、进度跟踪、多 IM(钉钉 / 飞书 / 微信)消息整合、知识库问答。 - 多智能体协同(高阶场景)
客服路由:主 Agent 分流至技术 / 财务 / 投诉专职 Agent 并行处理。
复杂项目:多 Agent 分工(解析、检索、撰写、校验)完成长文档 / 标书。
数字员工集群:一人管理多个 AI Agent,替代多岗位重复工作。
二、OpenClaw 未来五大趋势(2026--2030)
- 从个人工具 → 企业级 PaaS 平台
企业级能力:权限管控、SSO、审计日志、团队协作、私有化部署、数据隔离。
管控与观测:WebUI 集中管理、Token 消耗监控、任务审计、安全沙盒强化。
定位:成为企业内部 AI 自动化的标准基础设施。 - 技能生态平台化(AI 时代的 App Store)
ClawHub 技能市场:1.3 万 + 技能 → 10 万 +,覆盖全行业模板。
商业化闭环:开发者发布付费技能、企业订阅、定制化服务。
低代码 / 无代码:普通人拖拽构建自动化流程,无需编程。 - 多模态 + 具身智能(从电脑走向物理世界)
多模态升级:文本 → 语音 / 图像 / 视频 / 屏幕理解(OCR、截图、桌面操作)。
IoT 与硬件控制:全屋智能大脑、工业设备、机器人、车载系统的自然语言控制。
数字→物理闭环:一句指令完成跨设备、跨场景复杂任务链。 - 单智能体 → 分布式多智能体网络
主从 Agent 架构:一个主 Agent 调度 N 个专业子 Agent(代码 / 数据 / 设计 / 客服)。
跨设备协同:电脑 / 手机 / 服务器 / 边缘设备分布式算力组网。
自主协作:Agent 间自动沟通、分工、纠错、合并结果。 - 本地 / 边缘优先 + 隐私安全强化
数据不出域:全流程本地执行,敏感数据不上云,满足合规。
边缘计算优化:低延迟、离线可用、IoT / 移动端轻量化部署。
安全治理:权限最小化、操作审计、危险指令拦截、企业级安全认证。

一、系统与环境要求
提前确认电脑满足以下配置,避免安装后出现运行卡顿、模型无法加载等问题:
| 项 | 最低配置 | 推荐配置 |
|---|---|---|
| 系统 | Windows 10/11 64 位 | Windows 11 64 位 |
| 内存 | ≥4GB | ≥8GB |
| 磁盘 | ≥5GB 可用空间 | ≥20GB(含模型缓存) |
| 依赖 | Node.js ≥22.x、Ollama | 最新版 Node.js、Ollama |
| 网络 | 可联网 | 稳定网络(拉取模型) |
二、第一步:安装 Ollama(本地大模型服务)
Ollama 是本地大模型运行的核心,负责模型的加载与推理,必须先安装并启动,否则 OpenClaw 无法调用本地模型。
1. 安装 Ollama
以 管理员身份 打开 PowerShell(开始菜单搜索 PowerShell,右键选择"以管理员身份运行"),执行以下命令一键安装:
powershell
# 管理员 PowerShell 执行
curl -fsSL https://ollama.com/install.ps1 | iex
安装过程自动完成,无需手动操作,等待命令执行结束即可。
2. 拉取本地模型(以 qwen2:7b 为例)
Ollama 安装完成后,拉取常用的 qwen2:7b 模型(轻量、适配本地运行),执行命令:
powershell
ollama pull qwen2:7b
# 可选:glm-4.7-flash(轻量、长上下文,适合处理长文档)
ollama pull glm-4.7-flash
拉取速度取决于网络,模型大小约 4GB 左右,耐心等待即可(拉取一次,后续可离线使用)。
3. 验证 Ollama 运行
执行以下命令,验证 Ollama 是否正常启动并加载模型:
powershell
curl http://127.0.0.1:11434/api/tags
若返回包含 qwen2:7b 或 glm-4.7-flash 的模型列表,说明 Ollama 运行正常;若提示"无法连接",重启电脑后重新执行即可。
三、第二步:安装 OpenClaw
OpenClaw 作为 AI 智能体框架,负责提供聊天界面、工具调用等功能,安装前需先解决 PowerShell 脚本执行权限问题。
1. 管理员权限打开 PowerShell
同第一步,确保以管理员身份启动 PowerShell(否则会出现权限报错)。
2. 允许脚本执行(解决权限报错)
执行以下命令,允许当前用户运行本地脚本(仅执行一次即可):
powershell
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser -Force
出现确认提示时,直接按回车即可。
3. 一键安装 OpenClaw(官方脚本)
执行官方安装脚本,自动完成 OpenClaw 的下载与安装:
powershell
iwr -useb https://openclaw.ai/install.ps1 | iex
4. 验证安装
安装完成后,执行以下命令查看版本号,确认安装成功:
powershell
openclaw --version
若输出版本号(如 2026.3.31),说明 OpenClaw 安装成功。
四、第三步:OpenClaw 初始化配置
安装完成后,需通过配置向导设置运行模式、模型供应商等参数,生成初始配置文件。
1. 启动配置向导
在 PowerShell 中执行以下命令,启动 OpenClaw 初始化配置向导:
powershell
openclaw onboard
2. 配置步骤(按提示选择,全程无脑操作)
-
运行模式:选择 Local(仅本地模型,无需联网调用云端模型)
-
模型供应商:选择 ollama(对应我们安装的本地模型服务)
-
API Key:任意填写(如
ollama-local,本地模型无需真实 API Key) -
工作区:默认即可(路径:
C:\Users\Administrator\.openclaw\workspace) -
端口:默认
18789(无需修改,后续通过该端口访问 Web 界面)
配置完成后,向导会自动生成 openclaw.json 配置文件,进入下一步优化配置。
五、第四步:手动优化配置(关键,解决模型报错)
初始化配置后,需手动修改配置文件,确保 OpenClaw 正确调用 Ollama 本地模型,避免出现"API Key 缺失""模型无法找到"等报错。
1. 找到配置文件路径
配置文件默认路径:
plaintext
C:\Users\Administrator\.openclaw\openclaw.json
打开方式:复制路径到文件管理器地址栏,回车进入,右键 openclaw.json,选择"打开方式 → 记事本"。
2. 替换为推荐配置(直接复制覆盖)
全选记事本中的原有内容,删除后,复制以下完整配置粘贴(无需修改任何内容,直接适配你的环境):
json
{
"agents": {
"defaults": {
"workspace": "C:\\Users\\Administrator\\.openclaw\\workspace",
"model": {
"primary": "ollama/qwen2:7b"
}
}
},
"gateway": {
"mode": "local",
"auth": {
"mode": "token",
"token": "de3f69198247b949bd53623617688517be6f82e212f2c00b"
},
"port": 18789,
"bind": "loopback",
"tailscale": {
"mode": "off",
"resetOnExit": false
},
"controlUi": {
"allowInsecureAuth": true
},
"nodes": {
"denyCommands": [
"camera.snap",
"camera.clip",
"screen.record",
"contacts.add",
"calendar.add",
"reminders.add",
"sms.send",
"sms.search"
]
}
},
"session": {
"dmScope": "per-channel-peer"
},
"tools": {
"profile": "coding"
},
"channels": {
"zalouser": {
"enabled": true,
"dmPolicy": "pairing"
}
},
"plugins": {
"entries": {
"zalouser": {
"enabled": true
},
"duckduckgo": {
"enabled": true
}
}
},
"models": {
"mode": "merge",
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434",
"api": "ollama",
"apiKey": "ollama-local",
"models": [
{
"id": "qwen2:7b",
"name": "qwen2:7b",
"reasoning": false,
"input": ["text"],
"cost": {"input":0,"output":0,"cacheRead":0,"cacheWrite":0},
"contextWindow": 32768,
"maxTokens": 8192
},
{
"id": "glm-4.7-flash",
"name": "glm-4.7-flash",
"reasoning": false,
"input": ["text"],
"cost": {"input":0,"output":0,"cacheRead":0,"cacheWrite":0},
"contextWindow": 128000,
"maxTokens": 8192
}
]
}
}
},
"auth": {
"profiles": {
"ollama:default": {
"provider": "ollama",
"mode": "api_key"
}
}
}
}
粘贴完成后,按 Ctrl+S 保存文件,关闭记事本。
六、第五步:启动与使用 OpenClaw
配置优化完成后,启动 OpenClaw 网关,即可通过 Web 界面或命令行使用。
1. 启动 OpenClaw 网关
在 PowerShell 中执行以下命令,启动 OpenClaw 网关(核心服务):
powershell
openclaw gateway start
启动成功后,会提示"listening on ws://127.0.0.1:18789"。
2. 访问 Web UI(推荐,可视化操作)
打开任意浏览器,输入以下地址,即可进入 OpenClaw 可视化聊天界面:
plaintext
http://127.0.0.1:18789
无需登录,直接进入聊天框,即可与本地模型对话。
3. 命令行聊天(可选)
若不想使用 Web 界面,可直接在 PowerShell 中执行以下命令,进行命令行聊天:
powershell
openclaw chat
4. 关键说明(重要,避坑!)
-
/exec指令仅生成系统命令,不会自动执行(OpenClaw 出于安全设计,无自动执行系统命令的权限); -
生成的命令(如创建文件夹、修改文件),需手动复制到 PowerShell/CMD 中运行,才能生效;
-
当前配置中,
tools.profile: "coding"已默认开启文件读写、代码执行、网页搜索能力,无需额外配置。
七、常用命令汇总(速查)
整理 OpenClaw 日常使用高频命令,复制即可执行,无需记忆:
powershell
# 启动 OpenClaw 网关
openclaw gateway start
# 重启 OpenClaw 网关(配置修改后需执行)
openclaw gateway restart
# 停止 OpenClaw 网关
openclaw gateway stop
# 查看已加载的模型列表
openclaw models list
# 切换默认使用的本地模型(如切换为 glm-4.7-flash)
openclaw models set ollama/glm-4.7-flash
# 查看当前 OpenClaw 配置
openclaw config show
# 进入命令行聊天模式
openclaw chat
# 查看 OpenClaw 版本号
openclaw --version
八、常见问题与解决方案(避坑必看)
汇总安装与使用过程中最常见的 4 个问题,快速定位解决:
1. Ollama 连接失败
-
原因:Ollama 服务未启动,或 baseUrl 配置错误;
-
解决方案:① 重启电脑,Ollama 会自动启动;② 检查配置文件中
baseUrl为http://127.0.0.1:11434(不要加/v1)。
2. 模型不显示、无法调用
-
原因:模型未拉取成功,或配置文件中模型路径错误;
-
解决方案:① 重新拉取模型:
ollama pull qwen2:7b;② 重启 OpenClaw 网关:openclaw gateway restart。
3. 端口占用(提示"port 18789 is in use")
-
原因:18789 端口被其他软件占用;
-
解决方案:打开
openclaw.json,将"port": 18789改为其他未占用端口(如 18790),保存后重启网关。
4. /exec 指令不自动执行
-
原因:不是配置错误,而是 OpenClaw 本身的安全设计;
-
解决方案:手动复制生成的命令,到 PowerShell/CMD 中运行即可。
九、总结
本次教程完成了 OpenClaw + Ollama 本地模型的完整部署,核心逻辑总结如下:
-
Ollama 负责本地模型的加载与推理,是 OpenClaw 调用本地 AI 的基础;
-
OpenClaw 提供聊天界面、工具调用、配置管理等功能,主打本地优先、安全可控;
-
核心避坑点:配置文件中模型路径必须为
ollama/qwen2:7b,否则会出现 API Key 报错; -
OpenClaw 不支持自动执行系统命令(安全设计),需手动运行生成的命令。
按照以上步骤操作,即可实现 OpenClaw 稳定运行,享受本地 AI 聊天、工具调用的便捷体验。
补充说明:若需要快速部署,可直接使用一键安装脚本,无需手动执行每一步命令,留言可获取脚本。

| 提示 |
|---|
| 本人以抱着学习的态度去分享,以上内容如有雷同,不胜荣幸!如有不足,欢迎评论留言! |