Linux(Ubuntu)部署Ollama+Qwen(千问)本地大模型实战01

提示:本文介绍了在Linux系统上部署Ollama+Qwen大模型并集成OpenClaw的实战过程。首先通过Ollama运行Qwen3.5:2b本地模型,然后安装配置OpenClaw,选择Custom Provider自定义接入本地Ollama模型服务(地址需加/v1后缀)。配置完成后通过SSH端口转发访问OpenClaw的Web界面,实现本地大模型的交互式应用。文章提供了详细的安装命令和配置截图,包括模型地址设置、API兼容性选择等关键步骤,帮助开发者快速搭建本地AI服务环境。


前言

基于现在AI的使用程度,定制化需求和考虑离线使用AI问题,本地部署AI成为一种趋势。


一、了解ollama和OpenClaw

技术栈为:Ollama、OpenClaw、Qwen大模型

二、部署Ollama并运行Qwen大模型

1.下载ollama

ollama官网,可在官网下载安装包,这里提供安装脚本下载

bash 复制代码
curl -fsSL https://ollama.com/install.sh | sh

2.ollama引入Qwen模型

这里由于是本机ubuntu虚拟机部署,模型选择就以轻量的来 主要还是看服务器综合状态

bash 复制代码
ollama run qwen3.5:2b

跑起来看下是否可以进行问答操作

ollama基础命令

退出问话:ctrl+d 查看部署模型:ollama list 运行模型: ollama run 指定模型+版本

3.部署OpenClaw

环境准备

排查是否有nodeJs 和 nodeJs版本是否 >=22,如下为node安装脚本

bash 复制代码
# Download and install nvm:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh | bash
# in lieu of restarting the shell
\. "$HOME/.nvm/nvm.sh"
# Download and install Node.js:
nvm install 24
# Verify the Node.js version:
node -v # Should print "v24.14.0".
# Verify npm version:
npm -v # Should print "11.9.0".

OpenClaw安装

Linux
bash 复制代码
curl -fsSL https://openclaw.ai/install.sh | bash 或
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --no-onboard
Windows
bash 复制代码
iwr -useb https://openclaw.ai/install.ps1 | iex 或
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
OpenClaw 安装向导

在安装向导中,先不选择接入Qwen模型 全部跳过,后续在配置里面接入ollama 执行初始化向导

bash 复制代码
openclaw onboard --install-daemon

执行完初始化向导后,进行openclaw配置

bash 复制代码
#在终端手敲openclaw配置
openclaw config

选择 local 后,再选择Mode ,下一步如果直接选择Qwen 的话部署的是在线模型,是有token限制的,我们是本地部署,选择Custom Provider 进入后自定义模型配置 ollama的地址我这里是172.0.0.1:11434

根据提示下API Base URL 输入地址 http://172.0.0.1:11434/v1 (必须加上v1,因为ollama识别到请求的OpenApi就是http://172.0.0.1:11434/v1/XXXXXX,openclaw默认不给你加v1,你必须自己手动加)

设置APIKEY ,因为我们跑的是本地模型,不存在APIKEY 这里我们直接随便输入或者敲回车略过就行 提示Endpoint compatibility (API端点兼容性设置) 如下图,选择OpenAI-compatible

根据提示输入ModeID: 因为之前拉取的是qwen3.5:2b ,这里Model Id直接输入qwen3.5:2b ,回车后openclaw直接拉取并配置ollama下qwen3.5:2b 模型

配置别名 下面会填写好几个别名,这里就没有什么讲究了,起完别名自己记住就行了。 最后配置完成之后,选择Continue 提交退出

4.OpenClaw跑本地Qwen模型

bash 复制代码
#启动网关
openclaw gateway
#打开UI页面
openclaw dashboard

5.访问OpenClaw可视化页面

由于OpenClaw不提供外部源访问,这里直接用SSH 端口转发方式进行主机端访问

bash 复制代码
#192.168.1.44 为linux服务器的IP
ssh -N -L 18789:127.0.0.1:18789 root@192.168.1.44

根据提示访问:http://localhost:18789/#token=09f70457fac06efb88802ed07740d283fd008c2ff256e272


总结

本文完整讲解了 Linux 系统离线部署 ollama + Qwen 本地大模型 + OpenClaw 可视化平台 的全套流程,核心目标是搭建无 API 限制、可离线使用的本地 AI 服务。

核心组件

ollama:快速运行、管理本地大模型 Qwen3.5:2b:轻量、高效的离线大模型 OpenClaw:提供 Web 可视化聊天界面

关键部署步骤

安装 ollama 并拉取运行 qwen3.5:2b 模型 安装 Node.js 环境,部署 OpenClaw 平台 核心配置:OpenClaw 选择 Custom Provider,以 OpenAI 兼容模式 接入本地 ollama 必须填写:API 地址末尾加 /v1 → http://127.0.0.1:11434/v1 模型 ID 填写 qwen3.5:2b,API Key 留空或随便填

最终效果

本地运行大模型,无 API 限流、无网络依赖、完全隐私 通过 OpenClaw Web 界面可视化交互 支持 SSH 端口转发,在本地电脑访问服务器上的服务

相关推荐
码路飞2 小时前
熬夜看完 GTC 2026 Keynote,这 5 个发布跟开发者最相关(不只是显卡)
人工智能
数字生命卡兹克2 小时前
AI,正在吞噬所有软件。
人工智能
深视智能科技2 小时前
AIR 系列:极端环境下的高速成像方案
人工智能·科技·相机
HyperAI超神经3 小时前
基于2.5万临床数据,斯坦福大学发布首个原生3D腹部CT视觉语言模型,Merlin在752类任务中全面领先
人工智能·深度学习·神经网络·机器学习·3d·语言模型·cpu
飞Link3 小时前
具身智能:从大脑到四肢,AI跨越物理世界的全景指南
人工智能·机器人
KKKlucifer3 小时前
数据资产化背景下的分类分级技术架构设计
人工智能·安全·重构
蓝绿色~菠菜3 小时前
Multi-Agent 架构全景:10 种协作模式深度解析
人工智能·架构
智算菩萨3 小时前
ChatGPT 5.4在英语学习中的应用:经典专四英语散文《Spring Thaw》赏析
人工智能·学习·ai·chatgpt·机器翻译
balmtv3 小时前
GPT-4o推理能力深度拆解:统一多模态与端到端推理的架构革命
人工智能·架构