一文教你OpenClaw Docker 部署并调用本地Qwen3.5 9B模型

一文教你 OpenClaw Docker 部署 并调用本地Qwen3.5 9B模型

本文记录我在 Ubuntu 24.04.2 LTS 上,用 Docker 部署 Ollama (下载并运行 qwen3.5:9b-q8_0 模型),再把它接入 OpenClaw 的完整过程。

如果你也想在本地跑千问(Qwen)并用 OpenClaw 的 Web UI 进行对话/测试,可以按本文一步步做完。


0. 环境要求(建议先对照)

  • 操作系统:Ubuntu 24.04.2 LTS
  • 显卡:NVIDIA,16GB 显存更稳(本文以此为参考)
  • 驱动:版本 ≥ 535(通常意味着 CUDA 12+ 生态更匹配)
  • 内存:至少 16GB
  • 磁盘:预留 ≥ 20GB(模型与缓存会占空间)

1. 环境检测

1.1 NVIDIA 显卡驱动是否正常

bash 复制代码
nvidia-smi
watch -n 1 nvidia-smi

如果 nvidia-smi 没有输出(或提示找不到命令),一般是驱动没装好;如果输出里显示的驱动版本较低,建议先升级驱动再继续。

1.2 Docker 是否已安装

bash 复制代码
docker -v

如果没有版本信息,先安装 Docker:

bash 复制代码
# 快速安装 Docker(如未安装)
curl -fsSL https://get.docker.com | sh

# 启动 Docker 并设置开机自启
sudo systemctl start docker
sudo systemctl enable docker

# 验证 Docker
docker --version

2. Ollama:本地部署 Qwen3.5 9B(Q8_0 量化)

2.1 Docker 版 vs 系统服务版(systemctl)有什么区别?

Ollama 常见有两种安装/启动方式:Docker 版系统服务版(systemctl)。核心差异如下:

维度 Docker 版 Ollama 系统服务版 Ollama(systemctl)
运行环境 运行在容器里,依赖 Docker 直接运行在系统里,无容器隔离
GPU 使用 需要 --gpus all 显式启用 GPU 直接使用主机 GPU(前提是驱动正常)
数据位置 容器内 /root/.ollama(通常用 Docker 卷持久化) 主机 ~/.ollama(普通用户)或 /root/.ollama(root)
端口 通常映射主机 11434 默认直接占用主机 11434
冲突风险 端口映射相同会冲突 直接占用端口,容易与 Docker 版冲突

我这里 推荐 Docker 版:更好迁移、更好维护(尤其是你后面还要跑 OpenClaw 时)。

2.2 如果你装过系统服务版:先停掉,避免抢端口

bash 复制代码
sudo systemctl stop ollama
sudo systemctl disable ollama

如果你没有安装过系统服务版,这两条命令可能会提示 "Unit ollama.service not found",可以忽略。

2.3 启动 Docker 版 Ollama(带 GPU + 数据持久化)

下面用 Docker 卷 来保存模型与缓存,好处是:删容器不丢模型

bash 复制代码
docker run -d \
  --name ollama \
  --restart=always \
  --gpus all \
  -p 11434:11434 \
  -v ollama:/root/.ollama \
  ollama/ollama:latest

注意点:

  • --gpus all 用来启用 GPU。
  • -v ollama:/root/.ollama 用来持久化模型数据。

如果你在这里看到类似报错:could not select device driver "" with capabilities: [[gpu]],说明 Docker 还没配置好 NVIDIA GPU 运行时(通常需要安装 NVIDIA Container Toolkit )。这类问题建议先按 NVIDIA 官方文档把 nvidia-container-toolkit 配好,再继续。

2.4 验证 Ollama 是否启动成功

bash 复制代码
# 1) 容器是否在运行(看到 Up 即正常)
docker ps --filter "name=ollama"

# 2) 端口是否可访问(返回 "Ollama is running" 即成功)
curl http://127.0.0.1:11434

2.5 下载模型:qwen3.5:9b-q8_0

这里有一个容易踩坑的点:如果你用的是 Docker 版 Ollama,那么 ollama pull/list 这些命令应该在容器里执行(除非你额外在宿主机也安装了 Ollama 命令行)。

bash 复制代码
docker exec -it ollama ollama pull qwen3.5:9b-q8_0

如果拉取完成,列出模型确认一下:

bash 复制代码
docker exec -it ollama ollama list

然后跑一个简单对话,确认模型能正常工作:

bash 复制代码
docker exec -it ollama ollama run qwen3.5:9b-q8_0

看到能正常输出,同时 nvidia-smi 里 GPU 有占用,就说明 Ollama + GPU 没问题。

2.6 如果拉取模型时报错:升级 Ollama(Docker 镜像)

推荐按这个顺序升级(数据卷会保留,不会丢模型):

bash 复制代码
# 1) 拉取最新版镜像
docker pull ollama/ollama:latest

# 2) 停止并删除旧容器(仅删除容器实例,卷数据会保留)
docker stop ollama
docker rm ollama

# 3) 用新镜像重新启动容器
docker run -d \
  --name ollama \
  --restart=always \
  --gpus all \
  -p 11434:11434 \
  -v ollama:/root/.ollama \
  ollama/ollama:latest

3. OpenClaw:安装与对接 Ollama

3.1 准备 OpenClaw 的工作目录与数据卷

下面以 ~/openclaw-docker 为例(你也可以换成其它目录):

bash 复制代码
mkdir -p ~/openclaw-docker
cd ~/openclaw-docker

# 创建数据卷:持久化 OpenClaw 的配置与数据
docker volume create openclaw-data

如果你确定要清空 OpenClaw 的所有配置(会丢失 gateway token、模型配置等),再执行:

bash 复制代码
docker volume rm openclaw-data

3.2 重点:root 与非 root(node)用户不要混用

默认情况下,Docker 部署 OpenClaw 时,root 与非 root(node)用户使用的配置目录不一样:

  • root 用户(UID 0)
    • 主配置 / 工作目录:/root/.openclaw
    • 沙箱工作区:/root/.openclaw/sandboxes
  • 非 root 用户(node,UID 1000,镜像默认)
    • 主配置 / 工作目录:/home/node/.openclaw
    • 沙箱工作区:/home/node/.openclaw/sandboxes

关键区别(用一句话记住就行):你 configure 用谁,后面运行容器也要用同一个用户,否则很容易出现权限/找不到配置的问题。

本文后续统一使用 --user root,所以挂载路径都以 /root/.openclaw 为准。

3.3 运行配置向导(openclaw configure)

bash 复制代码
docker run -it --rm \
  --user root \
  --net=host \
  -v openclaw-data:/root/.openclaw \
  ghcr.io/openclaw/openclaw:latest \
  openclaw configure

3.3.1 配置 Workspace(工作目录)

3.3.2 配置 Model(对接 Ollama)

建议这样填(按你的实际情况替换):

  • API Base URL:
    • 如果你像本文一样在 openclaw configure 时加了 --net=host:可以填 http://127.0.0.1:11434/v1
    • 如果你没有使用 --net=host:不要填 127.0.0.1,改填宿主机 IP,比如 http://192.168.1.18:11434/v1
  • API Key:随意填写或直接回车(本地 Ollama 通常不做鉴权),例如 sk-123456
  • 模型名称:填 ollama list 里显示的模型名,例如 qwen3.5:9b-q8_0(不要拼错)

注意:Endpoint ID 建议填写 ollama。如果你填了别的名字,可能会在 Web UI 发送消息时出现类似报错:

text 复制代码
Agent failed before reply: No API key foun d for provider "custom-...".
...

3.3.3 配置 Gateway(用于 Web UI 连接)

Gateway bind modeGateway authTailscale exposureGateway token source 先按向导的推荐/默认选项来即可(如果你只是本机使用,一般不需要太复杂的暴露方式)。

这里最重要的一件事:记下 Gateway token(它相当于你的 Web UI 连接口令)。

完成后选择 continue 结束配置:

3.4 启动 OpenClaw 并访问 Web UI

在你刚才的工作目录里执行(这样 $(pwd) 就是你的 workspace):

bash 复制代码
docker run -d \
  --name openclaw \
  --net=host \
  --user root \
  -v openclaw-data:/root/.openclaw \
  -v "$(pwd)":/root/.openclaw/workspace \
  -v /var/run/docker.sock:/var/run/docker.sock \
  --restart unless-stopped \
  ghcr.io/openclaw/openclaw:latest

说明:

  • -v "$(pwd)":/root/.openclaw/workspace:把宿主机当前目录挂到容器里当 workspace,方便你在主机上直接管理文件。
  • -v /var/run/docker.sock:/var/run/docker.sock:允许 OpenClaw 调用宿主机 Docker(有安全风险,仅建议在你信任的本机环境使用)。

浏览器打开:

  • http://127.0.0.1:18789

如果出现需要令牌的页面,把你在配置阶段记录的 Gateway token 填进去即可:

3.4.1 如果一直提示验证不通过

常见原因之一:你 configure 时用的用户,和 docker run 运行时用的用户不一致(比如一个是 root,一个是 node),导致读取到的配置目录不同。

你也可以先用下面命令打印出 OpenClaw 的 dashboard 地址(不会自动打开浏览器):

bash 复制代码
docker exec -it openclaw openclaw dashboard --no-open

4. 简单验证:对话 + 观察 GPU

4.1 聊天询问模型信息

4.2 查看 GPU 使用情况

你可以开着 watch -n 1 nvidia-smi,然后在 Web UI 发几条消息,观察显存/利用率是否上涨。


5. 重点坑位(建议做成自检清单)

  1. 搞不清自己用的是 Docker 版还是系统服务版 Ollama
    • 两者同时存在时,经常抢 11434 端口,导致 "连不上/连错服务"。
  2. Docker 版 Ollama 却在宿主机直接跑 ollama pull/list
    • 除非你在宿主机也装了 Ollama CLI,否则请用 docker exec -it ollama ollama ...
  3. OpenClaw 的 root 与 node 用户混用
    • 典型表现:权限报错(EACCES)、找不到 token、Web UI 校验失败。
  4. Model 配置里 Endpoint ID 没填 ollama
    • 可能导致 Web UI 报 "No API key found for provider ..."。

6. 名词解释(统一放在文章末尾)

  • Ollama:一个在本地运行大模型的工具,提供命令行与 HTTP 接口。
  • Qwen / 千问:阿里巴巴开源的 Qwen(千问)系列大模型。
  • 9B:模型参数规模(约 90 亿参数),一般比 7B 更强,但也更吃显存/内存。
  • 8bit / Q8_0:量化方式的一种,把模型权重用更低精度保存,降低显存占用(但可能略影响效果)。
  • CUDA:NVIDIA 的 GPU 计算平台与生态(驱动、运行库、工具链等)。
  • NVIDIA Container Toolkit :让 Docker 容器能够使用 NVIDIA GPU 的组件(没装好会导致 --gpus all 失败)。
  • Gateway token:OpenClaw Web UI 用来连接网关的令牌,作用类似"访问口令"。
  • Endpoint ID:在 OpenClaw 里给某个模型接口起的"内部标识名",后续配置会引用它。
  • Web UI:网页界面(浏览器里操作的界面)。
相关推荐
Jason1880805012 小时前
一只小龙虾带一窝节点:JQOpenClaw 多 Node 架构接入 OpenClaw Gateway
qt·openclaw
呆呆敲代码的小Y2 小时前
【Unity-AI开发篇】| Unity-MCP最新指南:让AI接管游戏开发
人工智能·游戏·unity·ai·游戏引擎·mcp·unitymcp
小狗很可爱2 小时前
利用Docker建立个人博客
运维·docker·容器
玉梅小洋2 小时前
修改 Docker 容器主机名
运维·docker·容器
小手智联老徐2 小时前
老 Intel Mac Tahoe 26.3 部署 OpenClaw 极简指南
macos·openclaw
HeartJoySpark2 小时前
Spring Boot 接入本地大模型:Spring AI 整合 Ollama 实现智能对话教程
人工智能·spring boot·spring·ai
發糞塗牆2 小时前
【Azure 架构师学习笔记 】- Azure AI(13)-Azure OpenAI(4)-Azure OpenAI 提示工程进阶技巧
人工智能·ai·azure
小马_xiaoen2 小时前
RAG(检索增强生成)从原理到实战全解析
人工智能·ai·rag·检索增强生成
yuanmenghao2 小时前
WSL + Docker GPU 环境排查:NVIDIA-SMI couldn‘t find libnvidia-ml.so 问题分析与解决
linux·运维·服务器·docker·容器