本地部署 OpenClaw + DeepSeek-R1 完全指南

------基于 WSL2 + Windows 11 的创客级配置

作者:钰珠AIOT(全网同号)

适用对象:有一定技术基础的 DIY 爱好者、创客、AI 应用开发者

配置日期:2026年2月


📝 写在前面

如果你和我一样,希望拥有一个完全本地、隐私安全、可自由定制的 AI 助手,同时不想被云端 API 的费用和网络限制束缚,那么这篇文章就是为你准备的。

我将分享如何在 Windows 11 + WSL2 环境下,成功部署 OpenClaw(强大的 AI Agent 框架) + DeepSeek-R1-32B(本地推理模型) 的全过程。整个过程踩了不少坑,希望这份指南能让你少走弯路。

我的硬件配置:

  • CPU:Intel i9-12900K

  • GPU:NVIDIA RTX 3090(24GB 显存)

  • 内存:64GB DDR5

  • 系统:Windows 11 专业版 23H2

  • WSL2:Ubuntu 22.04 LTS


🤔 为什么选择 DeepSeek-R1-32B?

在选择模型的过程中,我经历了多次试错:

❌ 被淘汰的选项

  1. Qwen 2.5 32B Instruct:虽然中文能力强,但在实际 Agent 任务(多步推理、工具调用)中表现不佳,经常"理解不了我的意思",就像个"智障"。

  2. Qwen 2.5 7B/14B:显存占用虽小,但智能程度不足以处理复杂任务。

  3. DeepSeek-R1-70B:性能极强,但 Q4 量化后仍需要约 40GB 显存,我的 3090 无法承受。

✅ 最终选择:DeepSeek-R1-32B Q4_K_M 量化版

核心优势:

  • 推理能力卓越:DeepSeek-R1 系列专门针对复杂推理任务优化,在数学、代码生成、逻辑拆解上表现接近 70B 级模型

  • 显存友好 :Q4_K_M 量化后仅需 20-22GB 显存,刚好能在我 24GB 的 3090 上流畅运行,还有余量给上下文

  • 工具调用支持:社区验证对 OpenClaw 的 Agent 任务支持良好

  • 本地隐私:所有数据不出电脑,适合桌面机器人这类敏感场景

关于量化级别的选择(Q4_K_M vs Q8_0):

  • q8_0:精度更高,但需要 32-34GB 显存,3090 装不下

  • q4_K_M:显存占用 20-22GB,智能损失极小,日常任务几乎感觉不到差异,是我 24GB 显存的"黄金选择"


🛠️ 部署前的准备工作

1. 系统要求确认

  • Windows 11(版本 22H2 或更高,以支持 WSL2 的镜像网络模式)

  • NVIDIA 显卡 + 最新驱动(我的是 566.36)

  • 足够大的硬盘空间(模型约 20GB,建议预留 50GB)

2. 安装 WSL2 和 Ubuntu 22.04

以管理员身份打开 PowerShell,运行:

powershell

复制

下载

复制代码
# 启用 WSL 功能
dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart
dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart

# 重启电脑后,设置 WSL2 为默认版本
wsl --set-default-version 2

# 安装 Ubuntu 22.04
wsl --install -d Ubuntu-22.04

安装过程中会提示设置用户名和密码,记住它们。

3. 配置 WSL2 镜像网络模式(关键!)

为了让 WSL2 中的 OpenClaw 能直接访问 Windows 中的 Ollama,我们需要启用 WSL2 的镜像网络模式。

在 Windows 的用户目录(C:\Users\你的用户名)下创建文件 .wslconfig,内容如下:

ini

复制

下载

复制代码
[wsl2]
networkingMode=mirrored
dnsTunneling=true
firewall=true
autoProxy=true

然后重启 WSL:

powershell

复制

下载

复制代码
wsl --shutdown

重新打开 WSL 终端,网络配置生效。


📥 在 Windows 中安装 Ollama 和模型

1. 安装 Ollama

访问 ollama.com 下载 Windows 版本,直接安装即可。安装后 Ollama 会自动在后台运行,系统托盘会有图标。

2. 设置模型存储位置(可选)

为了不占用宝贵的 C 盘空间,我设置了环境变量将模型存到 D 盘:

  • 打开系统环境变量设置

  • 新建用户变量 OLLAMA_MODELS,值为 D:\ollama_models

  • 重启 Ollama(系统托盘退出后重新启动)

3. 拉取 DeepSeek-R1-32B 模型

打开 Windows 的命令提示符或 PowerShell,运行:

cmd

复制

下载

复制代码
ollama pull deepseek-r1:32b

注意:不要用 deepseek-r1:32b-q4_K_M ,这个标签不存在。官方 deepseek-r1:32b 就是 32B 参数的 Q4_K_M 量化版。

下载过程大约需要 20-30 分钟(取决于网速),文件大小约 20GB。完成后可用 ollama list 验证。

4. 测试模型

cmd

复制

下载

复制代码
ollama run deepseek-r1:32b "请简单介绍一下自己"

如果能正常回答,说明模型已就绪。


🐧 在 WSL2 Ubuntu 中安装 OpenClaw

1. 进入 WSL2 终端

powershell

复制

下载

复制代码
wsl ~

2. 安装 Node.js(OpenClaw 依赖)

bash

复制

下载

复制代码
curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash -
sudo apt-get install -y nodejs

3. 安装 OpenClaw

bash

复制

下载

复制代码
curl -fsSL https://openclaw.ai/install.sh | bash

安装脚本会自动完成以下工作:

  • 下载 OpenClaw 核心文件

  • 安装必要的 npm 依赖

  • 创建配置目录 ~/.openclaw

安装完成后,重新加载 shell 配置或重启终端:

bash

复制

下载

复制代码
source ~/.bashrc

4. 验证 OpenClaw 安装

bash

复制

下载

复制代码
openclaw --version

如果能显示版本号(如 2026.2.22-2),说明安装成功。


🔗 打通 OpenClaw 与 Windows 中的 Ollama

1. 确认网络互通

由于我们启用了 WSL2 的镜像网络模式,WSL2 可以直接通过 localhost 访问 Windows 服务。在 WSL2 终端中测试:

bash

复制

下载

复制代码
curl http://localhost:11434/api/tags

如果返回 JSON 格式的模型列表(包含 deepseek-r1:32b),说明网络已通。

如果上述命令失败,可回退到 NAT 模式获取 Windows IP:

bash

复制

下载

复制代码
# 获取 Windows 主机 IP
ip route show | grep default | awk '{print $3}'

然后用该 IP 替换 localhost 测试。

2. 配置 OpenClaw 使用本地模型

运行配置向导:

bash

复制

下载

复制代码
openclaw onboard

在向导中关键步骤的选择:

  • Onboarding modeManual

  • Gateway typeLocal gateway (this machine)

  • Workspace directory → 默认(回车)

  • Model/Auth providerCustom Provider(因为我们要连接本地 Ollama)

  • API Base URLhttp://localhost:11434/v1(如果镜像网络模式生效)或 http://<Windows-IP>:11434/v1

  • API Key → 任意值(如 ollama-local),本地不校验

  • Model namedeepseek-r1:32b(必须与 ollama list 显示的名称一致)

其他选项可根据需要配置,保持默认即可。

3. 启动 OpenClaw

bash

复制

下载

复制代码
openclaw gateway --port 18789

如果一切正常,你会看到类似这样的输出:

text

复制

下载

复制代码
🦞 OpenClaw gateway listening on http://localhost:18789

4. 测试 Agent 功能

另开一个 WSL2 终端,运行:

bash

复制下载

复制代码
openclaw tui

然后输入一个测试指令,比如:

"帮我创建一个名为 test.txt 的文件,内容写上 'OpenClaw + DeepSeek 测试成功'"

观察模型是否能正确理解并执行。如果当前目录出现 test.txt 文件,说明整个链路已打通!


🚧 常见问题与避坑指南

❓ 问题1:ollama pull deepseek-r1:32b 报错 "file does not exist"

原因 :模型名称输入错误。
解决 :直接用 deepseek-r1:32b,不要加 -q4_K_M 后缀。

❓ 问题2:WSL2 无法访问 Windows 的 localhost

原因 :WSL2 默认 NAT 模式需要额外配置。
解决 :首选启用镜像网络模式(如前文 .wslconfig 配置)。如果不行,使用 Windows IP 访问。

❓ 问题3:OpenClaw 调用模型时报错 "model not found"

原因 :OpenClaw 配置中的 model name 与 Ollama 中的不一致。
解决 :运行 ollama list 查看确切的模型名称,确保配置中完全一致(包括大小写)。

❓ 问题4:DeepSeek-R1 响应特别慢(>30 tokens/s 算正常?)

分析:32B Q4 模型在 3090 上约 17-24 tokens/s,这是正常速度。如果低于 10 tokens/s,检查:

  • 是否有其他程序占用 GPU

  • 是否用了更低效的量化版本

  • WSL2 中的 OpenClaw 是否走网络调用有损耗

❓ 问题5:OpenClaw 的 Agent 任务总是超时失败

原因 :模型推理速度慢 + 上下文累积。
解决:在 OpenClaw 配置中适当增加超时时间,或减少单次任务的复杂度。


💡 进阶优化建议

1. 设置模型自动加载

让 Ollama 在后台常驻,并将模型预加载到内存:

cmd

复制

下载

复制代码
ollama run deepseek-r1:32b --keep-alive -1

2. 配置 OpenClaw 开机自启

在 WSL2 中创建 systemd 服务,或简单地在 Windows 任务计划程序中启动 WSL 命令。

3. 分层模型策略

为不同任务配置不同模型:

  • 简单意图识别 → 轻量模型(如 Qwen 2.5 7B)

  • 复杂推理 → DeepSeek-R1-32B

    OpenClaw 支持多模型配置,可根据任务动态切换。

4. 定期运行安全审计

bash

复制代码
openclaw security audit --deep
openclaw security audit --fix

保持系统安全基线。


🎯 总结与下一步

至此,你已经拥有了一套完全本地的 AI Agent 系统:

  • OpenClaw 负责理解任务、拆解步骤、调用工具

  • DeepSeek-R1-32B 提供强大的推理能力

  • Ollama 负责模型运行和 API 服务

  • WSL2 + Windows 提供了良好的开发和运行环境

这套系统是我未来桌面机器人项目的核心大脑。通过它,我可以:

  • 让机器人听懂复杂指令

  • 自主规划任务(如"帮我查天气并设置提醒")

  • 调用外部工具(文件操作、网络请求等)

后续预告:我将基于这套系统,开发一个可以物理互动的桌面机器人,实现语音控制、人脸识别、自动避障等功能。如果你对这个项目感兴趣,欢迎持续关注!


📚 参考资料


如果你在部署过程中遇到问题,欢迎在评论区留言交流。如果觉得本文对你有帮助,请点赞、收藏、转发,让更多创客朋友看到!

让我们一起,把 AI 从云端请到身边

相关推荐
美酒没故事°1 天前
Open WebUI安装指南。搭建自己的自托管 AI 平台
人工智能·windows·ai
鸿乃江边鸟1 天前
Nanobot 从onboard启动命令来看个人助理Agent的实现
人工智能·ai
本旺1 天前
【Openclaw 】完美解决 Codex 认证失败
ai·codex·openclaw·小龙虾·gpt5.4
张張4081 天前
(域格)环境搭建和编译
c语言·开发语言·python·ai
乐鑫科技 Espressif1 天前
使用 MCP 服务器,把乐鑫文档接入 AI 工作流
人工智能·ai·esp32·乐鑫科技
语戚1 天前
Stable Diffusion 入门:架构、空间与生成流程概览
人工智能·ai·stable diffusion·aigc·模型
俊哥V1 天前
每日 AI 研究简报 · 2026-04-08
人工智能·ai
rrrjqy1 天前
什么是RAG?
ai
Flittly1 天前
【SpringAIAlibaba新手村系列】(15)MCP Client 调用本地服务
java·笔记·spring·ai·springboot
Flittly1 天前
【SpringAIAlibaba新手村系列】(14)MCP 本地服务与工具集成
java·spring boot·笔记·spring·ai