下面是一份 Windows /macOS/ Linux 三平台通用 的完整步骤:安装 Ollama → 运行模型 → 对接 Open WebUI,按顺序操作即可。
一、安装 Ollama(三平台)
1. Windows 安装
- 下载安装包:
- 双击
OllamaSetup.exe→ 点 Install,自动完成安装。 - 验证安装:
-
打开 PowerShell 或 CMD ,输入:
bash
运行
ollama --version -
显示版本号(如
0.3.14)即成功。
-
2. macOS 安装
- 下载安装包:
- 解压 → 把
Ollama.app拖到 应用程序 文件夹。 - 验证安装:
-
打开 终端 ,输入:
bash
运行
ollama --version -
显示版本号即成功。
-
3. Linux 安装(Ubuntu/Debian/CentOS 等)
-
打开终端,执行一键安装脚本: bash
运行
curl -fsSL https://ollama.com/install.sh | sh -
验证安装: bash
运行
ollama --version
二、运行 Ollama 与下载模型
1. 启动 Ollama 服务
-
Windows/macOS:安装后会自动后台运行(托盘有图标)。
-
Linux:手动启动(可选): bash
运行
ollama serve
2. 下载并运行模型(命令行)
bash
运行
# 下载并启动 Llama 3(7B 轻量版,推荐新手)
ollama run llama3
# 或下载 Qwen 2.5(7B 中文友好)
ollama run qwen2.5:7b-instruct
# 或下载 DeepSeek R1(7B 推理强)
ollama run deepseek-r1:7b
- 首次运行会自动下载模型(约 4--8GB),耐心等待。
- 下载完成后直接进入聊天界面,输入问题即可对话。
3. 常用管理命令
bash
运行
# 查看已下载模型
ollama list
# 停止运行中的模型
ollama stop llama3
# 删除模型
ollama rm llama3
三、对接 Open WebUI(可视化界面)
1. 安装 Docker(必须)
Open WebUI 推荐用 Docker 部署,先装 Docker:
- Windows/macOS :下载安装 Docker Desktop :https://www.docker.com/products/docker-desktop/
- Linux :按官方文档安装 Docker Engine:https://docs.docker.com/engine/install/
验证 Docker 安装成功:
bash
运行
docker -v
2. 启动 Open WebUI 容器
方式 A:仅用 WebUI(Ollama 已在本机)
bash
运行
docker run -d \
-p 3000:8080 \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
方式 B:WebUI + Ollama 一体(推荐新手)
bash
运行
# 有 NVIDIA GPU
docker run -d \
-p 3000:8080 \
--gpus=all \
-v ollama:/root/.ollama \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:ollama
# 仅 CPU
docker run -d \
-p 3000:8080 \
-v ollama:/root/.ollama \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:ollama
```{insert\_element\_0\_}
### 3. 访问 WebUI 并连接 Ollama
1. 打开浏览器访问:**http://localhost:3000**
2. 首次使用:**注册管理员账号**(仅本地存储,不上云)。
3. 连接 Ollama:
- 进入 **设置 → 连接 → Ollama**。
- 地址:`http://localhost:11434`(默认)→ 点击 **验证连接**。
- 显示"连接成功"即可。
4. 开始使用:
- 顶部选择模型(如 `llama3`、`qwen2.5:7b-instruct`)。
- 输入问题,像 ChatGPT 一样对话。
---
## 四、常见问题与优化
### 1. 模型下载慢(国内)
- 可设置代理,或用国内镜像源(搜索"Ollama 模型镜像")。
### 2. 模型存储在 C 盘(占空间)
- Windows:设置环境变量 `OLLAMA_MODELS`,指向其他盘(如 `D:\ollama_models`)。
- macOS/Linux:
```bash
export OLLAMA_MODELS=/path/to/your/models
3. 速度慢(CPU 运行)
- 优先用 7B 量化模型 (如
llama3:8b、qwen2.5:7b)。 - 有 NVIDIA GPU 可开启 CUDA 加速(Ollama 自动识别)。
五、总结
- 安装 Ollama → 验证
ollama --version。 - 运行
ollama run llama3下载并启动模型。 - 用 Docker 启动 Open WebUI → 访问
http://localhost:3000。 - 连接 Ollama → 开始可视化对话。
下面整理了 按场景分类 的 Ollama 常用模型清单,每个模型都标注了特点、适用场景和直接可用的 ollama run 命令,新手优先选 7B 量级(轻量、易运行):
一、中文友好型(优先选,适配中文对话 / 创作)
表格
| 模型名称 | 特点 | 适用场景 | Ollama 运行命令 |
|---|---|---|---|
| 通义千问 2.5(7B) | 阿里出品,中文理解顶尖,7B 轻量 | 日常聊天、中文创作、问答 | ollama run qwen2.5:7b-instruct |
| 通义千问 2.5(14B) | 中文能力更强,推理略优 | 复杂中文问答、长文本总结 | ollama run qwen2.5:14b-instruct |
| 讯飞星火 V4(7B) | 讯飞出品,中文语音 / 文本兼顾 | 中文对话、本地化场景 | ollama run spark:7b |
| Baichuan 3(7B) | 百川大模型,中文闲聊 / 写作优秀 | 中文创作、生活化问答 | ollama run baichuan3:7b |
二、代码编程型(写代码 / 调试 / 解释)
表格
| 模型名称 | 特点 | 适用场景 | Ollama 运行命令 |
|---|---|---|---|
| CodeLlama(7B) | Meta 官方代码模型,支持多语言 | 基础代码编写、语法解释 | ollama run codellama:7b-code |
| DeepSeek-Coder(7B) | 深度求索,代码能力顶尖,支持中文注释 | 复杂代码编写、调试、重构 | ollama run deepseek-coder:7b-instruct |
| CodeQwen(7B) | 千问代码版,中文代码场景适配好 | 中文注释代码、国内框架开发 | ollama run codeqwen:7b-instruct |
| StarCoder2(7B) | HuggingFace 出品,开源代码模型 | 开源项目开发、代码补全 | ollama run starcoder2:7b |
三、逻辑推理型(数学 / 分析 / 复杂思考)
表格
| 模型名称 | 特点 | 适用场景 | Ollama 运行命令 |
|---|---|---|---|
| Llama 3(8B) | Meta 旗舰模型,综合推理能力强 | 通用推理、逻辑分析、决策 | ollama run llama3:8b-instruct |
| DeepSeek-R1(7B) | 深度求索推理版,数学 / 逻辑顶尖 | 数学计算、逻辑题、数据分析 | ollama run deepseek-r1:7b |
| Mistral(7B) | 轻量高效,推理速度快 | 快速逻辑判断、简单分析 | ollama run mistral:7b-instruct-v0.2 |
| Phi-3(3.8B) | Microsoft 出品,小模型推理天花板 | 轻量化推理、低配置设备 | ollama run phi3:3.8b-instruct |
四、轻量化通用型(低配置设备 / 快速响应)
表格
| 模型名称 | 特点 | 适用场景 | Ollama 运行命令 |
|---|---|---|---|
| Qwen2.5(1.8B) | 千问轻量版,仅 1.8B,速度极快 | 低配电脑 / 笔记本、快速问答 | ollama run qwen2.5:1.8b-instruct |
| Gemma(2B) | Google 出品,小模型通用能力强 | 轻量化日常使用、离线运行 | ollama run gemma:2b-instruct |
新手使用建议
- 首次尝试 :优先选
ollama run qwen2.5:7b-instruct(中文友好)或ollama run llama3:8b-instruct(综合能力)。 - 配置有限 (8G 内存 / 无独显):选 1.8B/2B/3.8B 量级(如
phi3:3.8b-instruct),避免卡顿。 - 国内网络:模型下载慢可先设置 Ollama 镜像(搜索 "Ollama 国内镜像源"),或用代理。
- 切换模型 :运行新模型前,先执行
ollama stop 旧模型名释放资源。
总结
- 中文场景优先选 通义千问 2.5(7B) ,命令:
ollama run qwen2.5:7b-instruct; - 编程场景优先选 DeepSeek-Coder(7B) ,命令:
ollama run deepseek-coder:7b-instruct; - 推理场景优先选 DeepSeek-R1(7B) 或 Llama 3(8B) ,低配设备选 Phi-3(3.8B)。