------基于 WSL2 + Windows 11 的创客级配置
作者:钰珠AIOT(全网同号)
适用对象:有一定技术基础的 DIY 爱好者、创客、AI 应用开发者
配置日期:2026年2月
📝 写在前面
如果你和我一样,希望拥有一个完全本地、隐私安全、可自由定制的 AI 助手,同时不想被云端 API 的费用和网络限制束缚,那么这篇文章就是为你准备的。
我将分享如何在 Windows 11 + WSL2 环境下,成功部署 OpenClaw(强大的 AI Agent 框架) + DeepSeek-R1-32B(本地推理模型) 的全过程。整个过程踩了不少坑,希望这份指南能让你少走弯路。
我的硬件配置:
-
CPU:Intel i9-12900K
-
GPU:NVIDIA RTX 3090(24GB 显存)
-
内存:64GB DDR5
-
系统:Windows 11 专业版 23H2
-
WSL2:Ubuntu 22.04 LTS
🤔 为什么选择 DeepSeek-R1-32B?
在选择模型的过程中,我经历了多次试错:
❌ 被淘汰的选项
-
Qwen 2.5 32B Instruct:虽然中文能力强,但在实际 Agent 任务(多步推理、工具调用)中表现不佳,经常"理解不了我的意思",就像个"智障"。
-
Qwen 2.5 7B/14B:显存占用虽小,但智能程度不足以处理复杂任务。
-
DeepSeek-R1-70B:性能极强,但 Q4 量化后仍需要约 40GB 显存,我的 3090 无法承受。
✅ 最终选择:DeepSeek-R1-32B Q4_K_M 量化版
核心优势:
-
推理能力卓越:DeepSeek-R1 系列专门针对复杂推理任务优化,在数学、代码生成、逻辑拆解上表现接近 70B 级模型
-
显存友好 :Q4_K_M 量化后仅需 20-22GB 显存,刚好能在我 24GB 的 3090 上流畅运行,还有余量给上下文
-
工具调用支持:社区验证对 OpenClaw 的 Agent 任务支持良好
-
本地隐私:所有数据不出电脑,适合桌面机器人这类敏感场景
关于量化级别的选择(Q4_K_M vs Q8_0):
-
q8_0:精度更高,但需要 32-34GB 显存,3090 装不下 -
q4_K_M:显存占用 20-22GB,智能损失极小,日常任务几乎感觉不到差异,是我 24GB 显存的"黄金选择"
🛠️ 部署前的准备工作
1. 系统要求确认
-
Windows 11(版本 22H2 或更高,以支持 WSL2 的镜像网络模式)
-
NVIDIA 显卡 + 最新驱动(我的是 566.36)
-
足够大的硬盘空间(模型约 20GB,建议预留 50GB)
2. 安装 WSL2 和 Ubuntu 22.04
以管理员身份打开 PowerShell,运行:
powershell
复制
下载
# 启用 WSL 功能
dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart
dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart
# 重启电脑后,设置 WSL2 为默认版本
wsl --set-default-version 2
# 安装 Ubuntu 22.04
wsl --install -d Ubuntu-22.04
安装过程中会提示设置用户名和密码,记住它们。
3. 配置 WSL2 镜像网络模式(关键!)
为了让 WSL2 中的 OpenClaw 能直接访问 Windows 中的 Ollama,我们需要启用 WSL2 的镜像网络模式。
在 Windows 的用户目录(C:\Users\你的用户名)下创建文件 .wslconfig,内容如下:
ini
复制
下载
[wsl2]
networkingMode=mirrored
dnsTunneling=true
firewall=true
autoProxy=true
然后重启 WSL:
powershell
复制
下载
wsl --shutdown
重新打开 WSL 终端,网络配置生效。
📥 在 Windows 中安装 Ollama 和模型
1. 安装 Ollama
访问 ollama.com 下载 Windows 版本,直接安装即可。安装后 Ollama 会自动在后台运行,系统托盘会有图标。
2. 设置模型存储位置(可选)
为了不占用宝贵的 C 盘空间,我设置了环境变量将模型存到 D 盘:
-
打开系统环境变量设置
-
新建用户变量
OLLAMA_MODELS,值为D:\ollama_models -
重启 Ollama(系统托盘退出后重新启动)
3. 拉取 DeepSeek-R1-32B 模型
打开 Windows 的命令提示符或 PowerShell,运行:
cmd
复制
下载
ollama pull deepseek-r1:32b
注意:不要用 deepseek-r1:32b-q4_K_M ,这个标签不存在。官方 deepseek-r1:32b 就是 32B 参数的 Q4_K_M 量化版。
下载过程大约需要 20-30 分钟(取决于网速),文件大小约 20GB。完成后可用 ollama list 验证。
4. 测试模型
cmd
复制
下载
ollama run deepseek-r1:32b "请简单介绍一下自己"
如果能正常回答,说明模型已就绪。
🐧 在 WSL2 Ubuntu 中安装 OpenClaw
1. 进入 WSL2 终端
powershell
复制
下载
wsl ~
2. 安装 Node.js(OpenClaw 依赖)
bash
复制
下载
curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash -
sudo apt-get install -y nodejs
3. 安装 OpenClaw
bash
复制
下载
curl -fsSL https://openclaw.ai/install.sh | bash
安装脚本会自动完成以下工作:
-
下载 OpenClaw 核心文件
-
安装必要的 npm 依赖
-
创建配置目录
~/.openclaw
安装完成后,重新加载 shell 配置或重启终端:
bash
复制
下载
source ~/.bashrc
4. 验证 OpenClaw 安装
bash
复制
下载
openclaw --version
如果能显示版本号(如 2026.2.22-2),说明安装成功。
🔗 打通 OpenClaw 与 Windows 中的 Ollama
1. 确认网络互通
由于我们启用了 WSL2 的镜像网络模式,WSL2 可以直接通过 localhost 访问 Windows 服务。在 WSL2 终端中测试:
bash
复制
下载
curl http://localhost:11434/api/tags
如果返回 JSON 格式的模型列表(包含 deepseek-r1:32b),说明网络已通。
如果上述命令失败,可回退到 NAT 模式获取 Windows IP:
bash
复制
下载
# 获取 Windows 主机 IP
ip route show | grep default | awk '{print $3}'
然后用该 IP 替换 localhost 测试。
2. 配置 OpenClaw 使用本地模型
运行配置向导:
bash
复制
下载
openclaw onboard
在向导中关键步骤的选择:
-
Onboarding mode →
Manual -
Gateway type →
Local gateway (this machine) -
Workspace directory → 默认(回车)
-
Model/Auth provider →
Custom Provider(因为我们要连接本地 Ollama) -
API Base URL →
http://localhost:11434/v1(如果镜像网络模式生效)或http://<Windows-IP>:11434/v1 -
API Key → 任意值(如
ollama-local),本地不校验 -
Model name →
deepseek-r1:32b(必须与ollama list显示的名称一致)
其他选项可根据需要配置,保持默认即可。
3. 启动 OpenClaw
bash
复制
下载
openclaw gateway --port 18789
如果一切正常,你会看到类似这样的输出:
text
复制
下载
🦞 OpenClaw gateway listening on http://localhost:18789
4. 测试 Agent 功能
另开一个 WSL2 终端,运行:
bash
复制下载
openclaw tui
然后输入一个测试指令,比如:
"帮我创建一个名为 test.txt 的文件,内容写上 'OpenClaw + DeepSeek 测试成功'"
观察模型是否能正确理解并执行。如果当前目录出现 test.txt 文件,说明整个链路已打通!
🚧 常见问题与避坑指南
❓ 问题1:ollama pull deepseek-r1:32b 报错 "file does not exist"
原因 :模型名称输入错误。
解决 :直接用 deepseek-r1:32b,不要加 -q4_K_M 后缀。
❓ 问题2:WSL2 无法访问 Windows 的 localhost
原因 :WSL2 默认 NAT 模式需要额外配置。
解决 :首选启用镜像网络模式(如前文 .wslconfig 配置)。如果不行,使用 Windows IP 访问。
❓ 问题3:OpenClaw 调用模型时报错 "model not found"
原因 :OpenClaw 配置中的 model name 与 Ollama 中的不一致。
解决 :运行 ollama list 查看确切的模型名称,确保配置中完全一致(包括大小写)。
❓ 问题4:DeepSeek-R1 响应特别慢(>30 tokens/s 算正常?)
分析:32B Q4 模型在 3090 上约 17-24 tokens/s,这是正常速度。如果低于 10 tokens/s,检查:
-
是否有其他程序占用 GPU
-
是否用了更低效的量化版本
-
WSL2 中的 OpenClaw 是否走网络调用有损耗
❓ 问题5:OpenClaw 的 Agent 任务总是超时失败
原因 :模型推理速度慢 + 上下文累积。
解决:在 OpenClaw 配置中适当增加超时时间,或减少单次任务的复杂度。
💡 进阶优化建议
1. 设置模型自动加载
让 Ollama 在后台常驻,并将模型预加载到内存:
cmd
复制
下载
ollama run deepseek-r1:32b --keep-alive -1
2. 配置 OpenClaw 开机自启
在 WSL2 中创建 systemd 服务,或简单地在 Windows 任务计划程序中启动 WSL 命令。
3. 分层模型策略
为不同任务配置不同模型:
-
简单意图识别 → 轻量模型(如 Qwen 2.5 7B)
-
复杂推理 → DeepSeek-R1-32B
OpenClaw 支持多模型配置,可根据任务动态切换。
4. 定期运行安全审计
bash
openclaw security audit --deep
openclaw security audit --fix
保持系统安全基线。
🎯 总结与下一步
至此,你已经拥有了一套完全本地的 AI Agent 系统:
-
OpenClaw 负责理解任务、拆解步骤、调用工具
-
DeepSeek-R1-32B 提供强大的推理能力
-
Ollama 负责模型运行和 API 服务
-
WSL2 + Windows 提供了良好的开发和运行环境
这套系统是我未来桌面机器人项目的核心大脑。通过它,我可以:
-
让机器人听懂复杂指令
-
自主规划任务(如"帮我查天气并设置提醒")
-
调用外部工具(文件操作、网络请求等)
后续预告:我将基于这套系统,开发一个可以物理互动的桌面机器人,实现语音控制、人脸识别、自动避障等功能。如果你对这个项目感兴趣,欢迎持续关注!
📚 参考资料
如果你在部署过程中遇到问题,欢迎在评论区留言交流。如果觉得本文对你有帮助,请点赞、收藏、转发,让更多创客朋友看到!
让我们一起,把 AI 从云端请到身边