本地部署 OpenClaw + DeepSeek-R1 完全指南

------基于 WSL2 + Windows 11 的创客级配置

作者:钰珠AIOT(全网同号)

适用对象:有一定技术基础的 DIY 爱好者、创客、AI 应用开发者

配置日期:2026年2月


📝 写在前面

如果你和我一样,希望拥有一个完全本地、隐私安全、可自由定制的 AI 助手,同时不想被云端 API 的费用和网络限制束缚,那么这篇文章就是为你准备的。

我将分享如何在 Windows 11 + WSL2 环境下,成功部署 OpenClaw(强大的 AI Agent 框架) + DeepSeek-R1-32B(本地推理模型) 的全过程。整个过程踩了不少坑,希望这份指南能让你少走弯路。

我的硬件配置:

  • CPU:Intel i9-12900K

  • GPU:NVIDIA RTX 3090(24GB 显存)

  • 内存:64GB DDR5

  • 系统:Windows 11 专业版 23H2

  • WSL2:Ubuntu 22.04 LTS


🤔 为什么选择 DeepSeek-R1-32B?

在选择模型的过程中,我经历了多次试错:

❌ 被淘汰的选项

  1. Qwen 2.5 32B Instruct:虽然中文能力强,但在实际 Agent 任务(多步推理、工具调用)中表现不佳,经常"理解不了我的意思",就像个"智障"。

  2. Qwen 2.5 7B/14B:显存占用虽小,但智能程度不足以处理复杂任务。

  3. DeepSeek-R1-70B:性能极强,但 Q4 量化后仍需要约 40GB 显存,我的 3090 无法承受。

✅ 最终选择:DeepSeek-R1-32B Q4_K_M 量化版

核心优势:

  • 推理能力卓越:DeepSeek-R1 系列专门针对复杂推理任务优化,在数学、代码生成、逻辑拆解上表现接近 70B 级模型

  • 显存友好 :Q4_K_M 量化后仅需 20-22GB 显存,刚好能在我 24GB 的 3090 上流畅运行,还有余量给上下文

  • 工具调用支持:社区验证对 OpenClaw 的 Agent 任务支持良好

  • 本地隐私:所有数据不出电脑,适合桌面机器人这类敏感场景

关于量化级别的选择(Q4_K_M vs Q8_0):

  • q8_0:精度更高,但需要 32-34GB 显存,3090 装不下

  • q4_K_M:显存占用 20-22GB,智能损失极小,日常任务几乎感觉不到差异,是我 24GB 显存的"黄金选择"


🛠️ 部署前的准备工作

1. 系统要求确认

  • Windows 11(版本 22H2 或更高,以支持 WSL2 的镜像网络模式)

  • NVIDIA 显卡 + 最新驱动(我的是 566.36)

  • 足够大的硬盘空间(模型约 20GB,建议预留 50GB)

2. 安装 WSL2 和 Ubuntu 22.04

以管理员身份打开 PowerShell,运行:

powershell

复制

下载

复制代码
# 启用 WSL 功能
dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart
dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart

# 重启电脑后,设置 WSL2 为默认版本
wsl --set-default-version 2

# 安装 Ubuntu 22.04
wsl --install -d Ubuntu-22.04

安装过程中会提示设置用户名和密码,记住它们。

3. 配置 WSL2 镜像网络模式(关键!)

为了让 WSL2 中的 OpenClaw 能直接访问 Windows 中的 Ollama,我们需要启用 WSL2 的镜像网络模式。

在 Windows 的用户目录(C:\Users\你的用户名)下创建文件 .wslconfig,内容如下:

ini

复制

下载

复制代码
[wsl2]
networkingMode=mirrored
dnsTunneling=true
firewall=true
autoProxy=true

然后重启 WSL:

powershell

复制

下载

复制代码
wsl --shutdown

重新打开 WSL 终端,网络配置生效。


📥 在 Windows 中安装 Ollama 和模型

1. 安装 Ollama

访问 ollama.com 下载 Windows 版本,直接安装即可。安装后 Ollama 会自动在后台运行,系统托盘会有图标。

2. 设置模型存储位置(可选)

为了不占用宝贵的 C 盘空间,我设置了环境变量将模型存到 D 盘:

  • 打开系统环境变量设置

  • 新建用户变量 OLLAMA_MODELS,值为 D:\ollama_models

  • 重启 Ollama(系统托盘退出后重新启动)

3. 拉取 DeepSeek-R1-32B 模型

打开 Windows 的命令提示符或 PowerShell,运行:

cmd

复制

下载

复制代码
ollama pull deepseek-r1:32b

注意:不要用 deepseek-r1:32b-q4_K_M ,这个标签不存在。官方 deepseek-r1:32b 就是 32B 参数的 Q4_K_M 量化版。

下载过程大约需要 20-30 分钟(取决于网速),文件大小约 20GB。完成后可用 ollama list 验证。

4. 测试模型

cmd

复制

下载

复制代码
ollama run deepseek-r1:32b "请简单介绍一下自己"

如果能正常回答,说明模型已就绪。


🐧 在 WSL2 Ubuntu 中安装 OpenClaw

1. 进入 WSL2 终端

powershell

复制

下载

复制代码
wsl ~

2. 安装 Node.js(OpenClaw 依赖)

bash

复制

下载

复制代码
curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash -
sudo apt-get install -y nodejs

3. 安装 OpenClaw

bash

复制

下载

复制代码
curl -fsSL https://openclaw.ai/install.sh | bash

安装脚本会自动完成以下工作:

  • 下载 OpenClaw 核心文件

  • 安装必要的 npm 依赖

  • 创建配置目录 ~/.openclaw

安装完成后,重新加载 shell 配置或重启终端:

bash

复制

下载

复制代码
source ~/.bashrc

4. 验证 OpenClaw 安装

bash

复制

下载

复制代码
openclaw --version

如果能显示版本号(如 2026.2.22-2),说明安装成功。


🔗 打通 OpenClaw 与 Windows 中的 Ollama

1. 确认网络互通

由于我们启用了 WSL2 的镜像网络模式,WSL2 可以直接通过 localhost 访问 Windows 服务。在 WSL2 终端中测试:

bash

复制

下载

复制代码
curl http://localhost:11434/api/tags

如果返回 JSON 格式的模型列表(包含 deepseek-r1:32b),说明网络已通。

如果上述命令失败,可回退到 NAT 模式获取 Windows IP:

bash

复制

下载

复制代码
# 获取 Windows 主机 IP
ip route show | grep default | awk '{print $3}'

然后用该 IP 替换 localhost 测试。

2. 配置 OpenClaw 使用本地模型

运行配置向导:

bash

复制

下载

复制代码
openclaw onboard

在向导中关键步骤的选择:

  • Onboarding modeManual

  • Gateway typeLocal gateway (this machine)

  • Workspace directory → 默认(回车)

  • Model/Auth providerCustom Provider(因为我们要连接本地 Ollama)

  • API Base URLhttp://localhost:11434/v1(如果镜像网络模式生效)或 http://<Windows-IP>:11434/v1

  • API Key → 任意值(如 ollama-local),本地不校验

  • Model namedeepseek-r1:32b(必须与 ollama list 显示的名称一致)

其他选项可根据需要配置,保持默认即可。

3. 启动 OpenClaw

bash

复制

下载

复制代码
openclaw gateway --port 18789

如果一切正常,你会看到类似这样的输出:

text

复制

下载

复制代码
🦞 OpenClaw gateway listening on http://localhost:18789

4. 测试 Agent 功能

另开一个 WSL2 终端,运行:

bash

复制下载

复制代码
openclaw tui

然后输入一个测试指令,比如:

"帮我创建一个名为 test.txt 的文件,内容写上 'OpenClaw + DeepSeek 测试成功'"

观察模型是否能正确理解并执行。如果当前目录出现 test.txt 文件,说明整个链路已打通!


🚧 常见问题与避坑指南

❓ 问题1:ollama pull deepseek-r1:32b 报错 "file does not exist"

原因 :模型名称输入错误。
解决 :直接用 deepseek-r1:32b,不要加 -q4_K_M 后缀。

❓ 问题2:WSL2 无法访问 Windows 的 localhost

原因 :WSL2 默认 NAT 模式需要额外配置。
解决 :首选启用镜像网络模式(如前文 .wslconfig 配置)。如果不行,使用 Windows IP 访问。

❓ 问题3:OpenClaw 调用模型时报错 "model not found"

原因 :OpenClaw 配置中的 model name 与 Ollama 中的不一致。
解决 :运行 ollama list 查看确切的模型名称,确保配置中完全一致(包括大小写)。

❓ 问题4:DeepSeek-R1 响应特别慢(>30 tokens/s 算正常?)

分析:32B Q4 模型在 3090 上约 17-24 tokens/s,这是正常速度。如果低于 10 tokens/s,检查:

  • 是否有其他程序占用 GPU

  • 是否用了更低效的量化版本

  • WSL2 中的 OpenClaw 是否走网络调用有损耗

❓ 问题5:OpenClaw 的 Agent 任务总是超时失败

原因 :模型推理速度慢 + 上下文累积。
解决:在 OpenClaw 配置中适当增加超时时间,或减少单次任务的复杂度。


💡 进阶优化建议

1. 设置模型自动加载

让 Ollama 在后台常驻,并将模型预加载到内存:

cmd

复制

下载

复制代码
ollama run deepseek-r1:32b --keep-alive -1

2. 配置 OpenClaw 开机自启

在 WSL2 中创建 systemd 服务,或简单地在 Windows 任务计划程序中启动 WSL 命令。

3. 分层模型策略

为不同任务配置不同模型:

  • 简单意图识别 → 轻量模型(如 Qwen 2.5 7B)

  • 复杂推理 → DeepSeek-R1-32B

    OpenClaw 支持多模型配置,可根据任务动态切换。

4. 定期运行安全审计

bash

复制代码
openclaw security audit --deep
openclaw security audit --fix

保持系统安全基线。


🎯 总结与下一步

至此,你已经拥有了一套完全本地的 AI Agent 系统:

  • OpenClaw 负责理解任务、拆解步骤、调用工具

  • DeepSeek-R1-32B 提供强大的推理能力

  • Ollama 负责模型运行和 API 服务

  • WSL2 + Windows 提供了良好的开发和运行环境

这套系统是我未来桌面机器人项目的核心大脑。通过它,我可以:

  • 让机器人听懂复杂指令

  • 自主规划任务(如"帮我查天气并设置提醒")

  • 调用外部工具(文件操作、网络请求等)

后续预告:我将基于这套系统,开发一个可以物理互动的桌面机器人,实现语音控制、人脸识别、自动避障等功能。如果你对这个项目感兴趣,欢迎持续关注!


📚 参考资料


如果你在部署过程中遇到问题,欢迎在评论区留言交流。如果觉得本文对你有帮助,请点赞、收藏、转发,让更多创客朋友看到!

让我们一起,把 AI 从云端请到身边

相关推荐
lynn-fish2 小时前
标讯 “加速度”:AI 如何重构电力招投标的决策与效率
人工智能·ai·电网·电力·招投标·标讯
鹓于3 小时前
OpenClaw:让AI直接操控你的电脑
ai
發糞塗牆3 小时前
【Azure 架构师学习笔记 】- Azure AI(8)-Azure AI Foundry
人工智能·ai·azure
~kiss~3 小时前
大模型之OpenClaw介绍-开源自主AI执行代理(AI Agent)
ai
BugShare3 小时前
阿里千问又又翻车了—生成违规图片
安全·ai
virtaitech4 小时前
趋动科技 OrionX 社区版永久免费:重塑 AI 算力格局的“胜负手”
人工智能·科技·ai·gpu·池化技术
晔子yy4 小时前
AI编程时代:简单聊聊Agent技术
开发语言·ai
Swizard4 小时前
还在无脑堆砌提示词?三分钟看懂 Vercel v0 价值千万的 System Prompt 底层逻辑
ai·prompt
pcplayer4 小时前
Delphi程序和大模型交互之二
人工智能·ai·大模型·agent·delphi