Linux(Ubuntu)部署Ollama+Qwen(千问)本地大模型实战01

提示:本文介绍了在Linux系统上部署Ollama+Qwen大模型并集成OpenClaw的实战过程。首先通过Ollama运行Qwen3.5:2b本地模型,然后安装配置OpenClaw,选择Custom Provider自定义接入本地Ollama模型服务(地址需加/v1后缀)。配置完成后通过SSH端口转发访问OpenClaw的Web界面,实现本地大模型的交互式应用。文章提供了详细的安装命令和配置截图,包括模型地址设置、API兼容性选择等关键步骤,帮助开发者快速搭建本地AI服务环境。


前言

基于现在AI的使用程度,定制化需求和考虑离线使用AI问题,本地部署AI成为一种趋势。


一、了解ollama和OpenClaw

技术栈为:Ollama、OpenClaw、Qwen大模型

二、部署Ollama并运行Qwen大模型

1.下载ollama

ollama官网,可在官网下载安装包,这里提供安装脚本下载

bash 复制代码
curl -fsSL https://ollama.com/install.sh | sh

2.ollama引入Qwen模型

这里由于是本机ubuntu虚拟机部署,模型选择就以轻量的来 主要还是看服务器综合状态

bash 复制代码
ollama run qwen3.5:2b

跑起来看下是否可以进行问答操作

ollama基础命令

退出问话:ctrl+d 查看部署模型:ollama list 运行模型: ollama run 指定模型+版本

3.部署OpenClaw

环境准备

排查是否有nodeJs 和 nodeJs版本是否 >=22,如下为node安装脚本

bash 复制代码
# Download and install nvm:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh | bash
# in lieu of restarting the shell
\. "$HOME/.nvm/nvm.sh"
# Download and install Node.js:
nvm install 24
# Verify the Node.js version:
node -v # Should print "v24.14.0".
# Verify npm version:
npm -v # Should print "11.9.0".

OpenClaw安装

Linux
bash 复制代码
curl -fsSL https://openclaw.ai/install.sh | bash 或
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --no-onboard
Windows
bash 复制代码
iwr -useb https://openclaw.ai/install.ps1 | iex 或
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
OpenClaw 安装向导

在安装向导中,先不选择接入Qwen模型 全部跳过,后续在配置里面接入ollama 执行初始化向导

bash 复制代码
openclaw onboard --install-daemon

执行完初始化向导后,进行openclaw配置

bash 复制代码
#在终端手敲openclaw配置
openclaw config

选择 local 后,再选择Mode ,下一步如果直接选择Qwen 的话部署的是在线模型,是有token限制的,我们是本地部署,选择Custom Provider 进入后自定义模型配置 ollama的地址我这里是172.0.0.1:11434

根据提示下API Base URL 输入地址 http://172.0.0.1:11434/v1 (必须加上v1,因为ollama识别到请求的OpenApi就是http://172.0.0.1:11434/v1/XXXXXX,openclaw默认不给你加v1,你必须自己手动加)

设置APIKEY ,因为我们跑的是本地模型,不存在APIKEY 这里我们直接随便输入或者敲回车略过就行 提示Endpoint compatibility (API端点兼容性设置) 如下图,选择OpenAI-compatible

根据提示输入ModeID: 因为之前拉取的是qwen3.5:2b ,这里Model Id直接输入qwen3.5:2b ,回车后openclaw直接拉取并配置ollama下qwen3.5:2b 模型

配置别名 下面会填写好几个别名,这里就没有什么讲究了,起完别名自己记住就行了。 最后配置完成之后,选择Continue 提交退出

4.OpenClaw跑本地Qwen模型

bash 复制代码
#启动网关
openclaw gateway
#打开UI页面
openclaw dashboard

5.访问OpenClaw可视化页面

由于OpenClaw不提供外部源访问,这里直接用SSH 端口转发方式进行主机端访问

bash 复制代码
#192.168.1.44 为linux服务器的IP
ssh -N -L 18789:127.0.0.1:18789 root@192.168.1.44

根据提示访问:http://localhost:18789/#token=09f70457fac06efb88802ed07740d283fd008c2ff256e272


总结

本文完整讲解了 Linux 系统离线部署 ollama + Qwen 本地大模型 + OpenClaw 可视化平台 的全套流程,核心目标是搭建无 API 限制、可离线使用的本地 AI 服务。

核心组件

ollama:快速运行、管理本地大模型 Qwen3.5:2b:轻量、高效的离线大模型 OpenClaw:提供 Web 可视化聊天界面

关键部署步骤

安装 ollama 并拉取运行 qwen3.5:2b 模型 安装 Node.js 环境,部署 OpenClaw 平台 核心配置:OpenClaw 选择 Custom Provider,以 OpenAI 兼容模式 接入本地 ollama 必须填写:API 地址末尾加 /v1 → http://127.0.0.1:11434/v1 模型 ID 填写 qwen3.5:2b,API Key 留空或随便填

最终效果

本地运行大模型,无 API 限流、无网络依赖、完全隐私 通过 OpenClaw Web 界面可视化交互 支持 SSH 端口转发,在本地电脑访问服务器上的服务

相关推荐
HackTorjan19 小时前
深度解析雪花算法及其高性能优化策略
人工智能·深度学习·算法·性能优化·dreamweaver
无忧智库19 小时前
碳电融合时代的数字化破局:某能源集团“十五五“VPP与碳交易联动运营系统深度解析(WORD)
大数据·人工智能·能源
果汁华19 小时前
LlamaIndex:连接私有数据与 LLM 的数据框架
人工智能·知识图谱
高工智能汽车19 小时前
从芯片到场景:联发科发布主动式智能体座舱,按下AI汽车进化加速键
人工智能·汽车
元宇宙时间19 小时前
全球信息聚合市场迎来爆发拐点:从边缘实验走向主流基础设施
人工智能
1892280486119 小时前
EMMC32G-M525闪存EMMC32G-T527
网络·人工智能
暗夜猎手-大魔王19 小时前
转载--AI Agent 架构设计:工具系统设计(OpenClaw、Claude Code、Hermes Agent 对比)
人工智能
墨染天姬19 小时前
【AI】cursor使用场景示例
人工智能
挖AI金矿19 小时前
(六)文件与搜索 - 信息处理的正确姿势
人工智能·python·开源·个人开发·ai编程
龙侠九重天19 小时前
OpenClaw 与 Hermes 有何异同?——从系统架构到用户体验的全面对比
人工智能·ai·系统架构·大模型·llm·openclaw·hermes