个人游戏笔记本免费“养龙虾”(Win10+WSL2+OpenClaw 部署与配置指南)

个人游戏笔记本免费"养龙虾"(Win10+WSL2+OpenClaw 部署与配置指南)


系列文章:
1. 个人游戏笔记本免费"养龙虾"(Win10+WSL2+OpenClaw 部署与配置指南)
2.个人游戏笔记本免费"养龙虾"(二)用显卡GPU运行OpenClaw,CUDA的安装与配置

前言

Openclaw的安全问题饱受诟病。为此,有文章建议用虚拟机或者沙箱隔离能缓解风险。虚拟机对于GPU的支持不太好。而沙箱轻量高效,有博文指出利用Docker容器构建沙箱,适合运行Openclaw这类高风险AI工具。官方也支持并推荐Docker容器化部署。

我的游戏笔记本是Lenovo Legion Y9000X 2021,Windows10操作系统,显卡是NVIDIA GeForce RTX 2060,6G显存。部署openclaw需要WSL2。WSL2类似于虚拟机,已经具备一定的隔离主机的作用,所以我不打算用Docker,而是直接按照官方指南在WSL2中配置Ubuntu 24.04,再部署openclaw的方式。有可能还需要安装CUDA Toolkit 12.4与NVIDIA Container Toolkit兼容层,再通过systemd-genie启用服务管理。


一、安装 WSL2 环境

WSL2 是官方推荐的 OpenClaw 运行环境。

1、开启 WSL2

在powershell中安装WSL2。可以直接指定位置到其他盘符(例如:e:\WSL),以免过多占用C盘空间。

以管理员身份运行powershell:

powershell 复制代码
wsl --install -d Ubuntu --location e:\WSL

注意事项

  • 需要以管理员身份运行 PowerShell
  • 路径 e:\WSL 需要提前创建
  • 安装完成后可能需要重启系统
  • 第一次启动 Ubuntu 需要等待安装完成并设置用户名密码
  • WSL2 在哪个盘,OpenClaw 就在哪个盘。

验证安装

powershell 复制代码
# 查看已安装的 WSL 发行版
wsl -l -v

# 启动 Ubuntu
wsl -d Ubuntu

安装的Ubuntu的版本是Ubuntu 24.04.4 LTS:

cat /etc/os-release

PRETTY_NAME="Ubuntu 24.04.4 LTS"

NAME="Ubuntu"

VERSION_ID="24.04"

VERSION="24.04.4 LTS (Noble Numbat)"

2、启用systemd

进入WSL Ubuntu终端,查看/etc/wsl.conf。

3、WSL固定DNS

关闭WSL自动生成DNS:

bash 复制代码
## nano /etc/wsl.conf

[network]
generateResolvConf = false

4、删除systemd生成的resolv.conf

systemd生成的resolv.conf是软连接,所以先删除,再新建。

bash 复制代码
sudo rm /etc/resolv.conf

创建新的静态 DNS 文件:

bash 复制代码
sudo vim /etc/resolv.conf
nameserver 1.1.1.1
nameserver 8.8.8.8
nameserver 202.103.24.68
options timeout:2 attempts:3

5、重启 WSL

在powershell中重启WSL,再打开Ubuntu。
注意:不是在WSL Ubuntu终端

powershell 复制代码
wsl --shutdown
wsl -d Ubuntun

【可选】6、WSL2性能优化:

在Windows用户目录(C:\Users\你的用户名)下创建 .wslconfig 文件,用于限制WSL2的内存和CPU使用,避免占满主机资源。

javascript 复制代码
[wsl2]
  memory=6GB      # 根据你的物理内存调整
  processors=4
  localhostForwarding=true

保存后,在PowerShell中执行 wsl --shutdown 重启WSL使配置生效。

二、安装Node.js环境

Node.js运行环境要求版本 ≥ 22。

1、更换镜像源(Ubuntu24.04):

  • 修改/etc/apt/sources.list.d/文件夹中的ubuntu.sources。

    http://archive.ubuntu.com/ubuntu/修改为https://mirrors.aliyun.com/ubuntu/

    http://security.ubuntu.com/ubuntu/修改为https://mirrors.aliyun.com/ubuntu/

  • 在 WSL Ubuntu 终端中执行:

bash 复制代码
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt-get install -y nodejs
  • 验证安装:
bash 复制代码
$ node -v
v22.22.1

三、部署openclaw

1、配置npm国内镜像源

bash 复制代码
npm config set registry https://registry.npmmirror.com

2、安装OpenClaw

bash 复制代码
#  全局安装 OpenClaw
sudo npm install -g openclaw@latest

3、初始化配置OpenClaw

参考文献1:本地部署OpenClaw+Qwen大模型+接入飞书机器人
参考文献2: 让你玩转OpenClaw (安装配置篇)-腾讯云开发者社区-腾讯云

在终端中执行以下命令:

bash 复制代码
# 交互式配置
openclaw onboard --install-daemon

(1)安全须知

OpenClaw onboarding启动之后,首先给出必读的安全须知。其中,明确说明了OpenClaw 是一个个人兴趣项目,目前仍处于 Beta 测试阶段,功能尚不完善,可能存在未预期的行为或风险。

(2)初始化配置

以下是几个配置的选择方式。用↑、↓键选择,↵回车键确认。

  • I understand this is powerful and inherently risky. Continue?

选择 Yes

  • Onboarding mode

选择 QuickStart

  • Model/auth provider

选择 Skip for now(稍后配置千问qwen3.5:2b模型)

  • Filter models by provider

选择 All providers

  • Default model

选择 Keep current (default: anthropic/claude-opus-4-6)

  • Select channel (QuickStart)

选择 Skip for now(稍后配置渠道)

  • Configure skills now? (recommended)

选择 No

  • Enable hooks?

按空格键选中选项,按回车键进入下一步

  • How do you want to hatch your bot?

选择 Do this later

(3)控制 OpenClaw

配置完成之后,在终端界面中,可以看到"控制界面"信息。把"WEB UI"中的地址复制到浏览器中,就可以通知面板使用openclaw。

http://127.0.0.1:18789/#token=你自己的token值

但是,目前没有配置大模型,所以无法实现AI功能。

四、部署本地私有模型

使用openclaw如果提示词使用不当,进入死循环,那么将产生巨量token费用。(建议:合理设计提示词逻辑结构,避免循环调用场景。监控API调用频率和token消耗情况,设置使用阈值预警。)

各云平台提供的试用免费API适合个人用户尝鲜使用,可作为入门选择。

个人游戏本配置有GPU显存,可以本地运行Openclaw,零成本、上手快,无需购买服务器,避免天量的token费用,适合个人入门使用,能够快速验证功能、处理敏感数据或断网环境使用。

1、安装Ollama

bash 复制代码
# Linux(Ubuntu/Debian)
curl -fsSL https://ollama.com/install.sh | sh

验证安装:

bash 复制代码
# 显示版本号即表示成功
$ ollama -v
ollama version is 0.18.2

2、 拉取基础大模型(推荐Qwen系列,国内适配性最佳)

Ollama支持一键拉取主流大模型,推荐通义千问系列,兼顾性能与硬件要求:

bash 复制代码
# 拉取qwen3.5:2b基础模型(约2.7GB,适合6G显存GPU)
ollama pull qwen3.5:2b

拉取过程保持网络通畅,耗时5~20分钟(取决于网络速度),模型自动存储在本地Ollama目录。

bash 复制代码
ollama pull qwen3.5:2b
pulling manifest
pulling b709d81508a0: 100% ▕▏ 2.7 GB
pulling 9be69ef46306: 100% ▕▏  11 KB
pulling 9371364b27a5: 100% ▕▏   65 B
pulling ee043a99abe5: 100% ▕▏  473 B
verifying sha256 digest
writing manifest
success

3、 定制大模型:扩展上下文窗口至32768 tokens(核心步骤)

Ollama基础模型默认上下文窗口仅4096 tokens,需手动定制扩展至32768 tokens(兼顾推理速度与上下文长度)。在Linux终端中新建Modelfile,然后修改该文件内容:

bash 复制代码
# 1. 切换到当前用户根目录(替换<你的用户名>为实际Windows用户名,如Administrator)
$ cd /mnt/c/users/<你的用户名>

# 2. 一键创建Modelfile配置文件(基于qwen3.5:2b,设置上下文窗口32768 tokens)
$ sudo vim Modelfile
FROM qwen3.5:2b
PARAMETER num_ctx 32768

# 3. 验证配置文件(正确输出应包含FROM qwen3.5:2b和PARAMETER num_ctx 32768)
$ Get-Content Modelfile
bash 复制代码
# 4. (可选)创建自定义模型(命名为qwen3.5:2b-32k,便于识别)
$ sudo ollama create qwen3.5:2b-32k -f Modelfile

# 5. 验证自定义模型(查看本地所有模型,应显示qwen3.5:2b-32k)
$ ollama list

# 6. (可选)确认上下文窗口配置(确保包含num_ctx 32768)
ollama show qwen3.5:2b-32k --modelfile

# 7. 验证模型运行正常
ollama run qwen3.5:2b "你好,请介绍自己"

# 8. 后台启动Ollama服务,暴露本地接口
ollama serve


参考文献3:Ollama自定义模型,定制你自己的大模型
参考文献4:Ollama 本地自定义模型实践指南-CSDN

4、交互式配置:对接本地Ollama模型

执行配置向导,将OpenClaw指向本地Ollama。

复制代码
# 启动配置向导
openclaw onboard

按PowerShell提示依次完成以下配置(严格操作,避免错误):

配置步骤 操作要求 输入/选择内容
Model/auth provider 选择模型提供商,拉到列表最后一项 Custom Provider
API Base URL 本地Ollama的API地址(固定格式) http://127.0.0.1:11434/v1
API Key 任意字符串(不可留空,Ollama无实际鉴权,仅为格式要求) ollama(或自定义如123456)
Endpoint compatibility 接口兼容模式 OpenAI-compatible
Model ID 本地自定义模型名(与前文一致) qwen3.5:2b
后续所有配置项 暂不配置渠道、技能等 全部选择Skip for now / No

配置完成后,若显示"Verification successful",表示连接成功;控制台会显示OpenClaw Web UI地址(http://127.0.0.1:18789)和管理员Token,记录Token备用。

若提示"Verification failed",先执行ollama list测试Ollama服务是否正常,确保API Base URL末尾包含"/v1"、API Key未留空。

参考文献5:OpenClaw+Windows+Ollama本地私有化-阿里云

在浏览器中输入http://127.0.0.1:18789/#token=你自己的token值就可以使用OpenClaw了。

5、碰到的问题及解决方法

  • 需要一定的Linux命令基础。在整个过程中,会用到nano、cd、ls、mv、rm等Linux命令。对于挂载、环境变量等基本概念也需要了解。有的命令是在PowerShell中执行,有的命令是在WSL2_Ubuntu命令行中执行。
  • 模型选择不当,会造成内存不足,导致WSL2崩溃退出。解决方法有2个:一是 选择参数较低的模型,例如选择qwen3.5:2b,而不选择qwen3.5:4b。二是 降低配置参数,例如降低上下文长度;降低GPU层数量会更有效。三是关闭不必要的进程,腾出更多的CPU和内存。例如关闭杀毒、浏览器等软件。
bash 复制代码
# 修改Modelfile
PARAMETER num_ctx 4096  # 将上下文长度从32K调整为4K,大幅降低KVCache显存占用
bash 复制代码
# nano ~/.bashrc
# 设置GPU层数量(显存6GB设为20,显存8GB设为40)
export OLLAMA_GPU_LAYERS=10
相关推荐
待续3012 小时前
OpenClaw 安装及使用教程(Windows / macOS / Linux)
linux·windows·macos
团子和二花3 小时前
openclaw平替之nanobot源码解析(七):Gateway与多渠道集成
python·gateway·agent·智能体·openclaw·nanobot
sthnyph4 小时前
MySQL 8.0在windows环境安装及配置
windows·mysql·adb
程序员鱼皮4 小时前
刚刚,微信终于能用 OpenClaw 了!安卓 iOS 都行,附保姆级教程
ai·程序员·编程·ai编程·openclaw
小飞菜涅4 小时前
fast-lio2复现
嵌入式硬件·学习·ubuntu
深念Y4 小时前
Windows 11 23H2 搜狗输入法卸载后任务栏严重卡顿问题分析
windows
jinanwuhuaguo5 小时前
OpenClaw发展全史深度分析:从“一小时原型”到“多智能体协作平台”的范式跃迁
openclaw
arvin_xiaoting6 小时前
OpenClaw学习总结_I_核心架构_9:Multi-Agent详解
网络·学习·架构·系统架构·ai agent·multi-agent·openclaw
AI-小柒6 小时前
DataEyes 聚合平台 + Claude Code Max 编程实战
android·开发语言·人工智能·windows·python·macos·adb