一份 Windows/macOS/Linux 完整安装 + 运行 + 对接 WebUI 的步骤

下面是一份 Windows /macOS/ Linux 三平台通用 的完整步骤:安装 Ollama → 运行模型 → 对接 Open WebUI,按顺序操作即可。

一、安装 Ollama(三平台)

1. Windows 安装

  1. 下载安装包:
  2. 双击 OllamaSetup.exe → 点 Install,自动完成安装。
  3. 验证安装:
    • 打开 PowerShellCMD ,输入:

      bash

      运行

      复制代码
      ollama --version
    • 显示版本号(如 0.3.14)即成功。

2. macOS 安装

  1. 下载安装包:
  2. 解压 → 把 Ollama.app 拖到 应用程序 文件夹。
  3. 验证安装:
    • 打开 终端 ,输入:

      bash

      运行

      复制代码
      ollama --version
    • 显示版本号即成功。

3. Linux 安装(Ubuntu/Debian/CentOS 等)

  1. 打开终端,执行一键安装脚本: bash

    运行

    复制代码
    curl -fsSL https://ollama.com/install.sh | sh
  2. 验证安装: bash

    运行

    复制代码
    ollama --version

二、运行 Ollama 与下载模型

1. 启动 Ollama 服务

  • Windows/macOS:安装后会自动后台运行(托盘有图标)。

  • Linux:手动启动(可选): bash

    运行

    复制代码
    ollama serve

2. 下载并运行模型(命令行)

bash

运行

复制代码
# 下载并启动 Llama 3(7B 轻量版,推荐新手)
ollama run llama3

# 或下载 Qwen 2.5(7B 中文友好)
ollama run qwen2.5:7b-instruct

# 或下载 DeepSeek R1(7B 推理强)
ollama run deepseek-r1:7b
  • 首次运行会自动下载模型(约 4--8GB),耐心等待。
  • 下载完成后直接进入聊天界面,输入问题即可对话。

3. 常用管理命令

bash

运行

复制代码
# 查看已下载模型
ollama list

# 停止运行中的模型
ollama stop llama3

# 删除模型
ollama rm llama3

三、对接 Open WebUI(可视化界面)

1. 安装 Docker(必须)

Open WebUI 推荐用 Docker 部署,先装 Docker:

验证 Docker 安装成功:

bash

运行

复制代码
docker -v

2. 启动 Open WebUI 容器

方式 A:仅用 WebUI(Ollama 已在本机)

bash

运行

复制代码
docker run -d \
  -p 3000:8080 \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main
方式 B:WebUI + Ollama 一体(推荐新手)

bash

运行

复制代码
# 有 NVIDIA GPU
docker run -d \
  -p 3000:8080 \
  --gpus=all \
  -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama

# 仅 CPU
docker run -d \
  -p 3000:8080 \
  -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama
```{insert\_element\_0\_}

### 3. 访问 WebUI 并连接 Ollama
1. 打开浏览器访问:**http://localhost:3000**
2. 首次使用:**注册管理员账号**(仅本地存储,不上云)。
3. 连接 Ollama:
   - 进入 **设置 → 连接 → Ollama**。
   - 地址:`http://localhost:11434`(默认)→ 点击 **验证连接**。
   - 显示"连接成功"即可。
4. 开始使用:
   - 顶部选择模型(如 `llama3`、`qwen2.5:7b-instruct`)。
   - 输入问题,像 ChatGPT 一样对话。

---

## 四、常见问题与优化
### 1. 模型下载慢(国内)
- 可设置代理,或用国内镜像源(搜索"Ollama 模型镜像")。

### 2. 模型存储在 C 盘(占空间)
- Windows:设置环境变量 `OLLAMA_MODELS`,指向其他盘(如 `D:\ollama_models`)。
- macOS/Linux:
  ```bash
  export OLLAMA_MODELS=/path/to/your/models

3. 速度慢(CPU 运行)

  • 优先用 7B 量化模型 (如 llama3:8bqwen2.5:7b)。
  • 有 NVIDIA GPU 可开启 CUDA 加速(Ollama 自动识别)。

五、总结

  1. 安装 Ollama → 验证 ollama --version
  2. 运行 ollama run llama3 下载并启动模型。
  3. 用 Docker 启动 Open WebUI → 访问 http://localhost:3000
  4. 连接 Ollama → 开始可视化对话。

下面整理了 按场景分类 的 Ollama 常用模型清单,每个模型都标注了特点、适用场景和直接可用的 ollama run 命令,新手优先选 7B 量级(轻量、易运行):


一、中文友好型(优先选,适配中文对话 / 创作)

表格

模型名称 特点 适用场景 Ollama 运行命令
通义千问 2.5(7B) 阿里出品,中文理解顶尖,7B 轻量 日常聊天、中文创作、问答 ollama run qwen2.5:7b-instruct
通义千问 2.5(14B) 中文能力更强,推理略优 复杂中文问答、长文本总结 ollama run qwen2.5:14b-instruct
讯飞星火 V4(7B) 讯飞出品,中文语音 / 文本兼顾 中文对话、本地化场景 ollama run spark:7b
Baichuan 3(7B) 百川大模型,中文闲聊 / 写作优秀 中文创作、生活化问答 ollama run baichuan3:7b

二、代码编程型(写代码 / 调试 / 解释)

表格

模型名称 特点 适用场景 Ollama 运行命令
CodeLlama(7B) Meta 官方代码模型,支持多语言 基础代码编写、语法解释 ollama run codellama:7b-code
DeepSeek-Coder(7B) 深度求索,代码能力顶尖,支持中文注释 复杂代码编写、调试、重构 ollama run deepseek-coder:7b-instruct
CodeQwen(7B) 千问代码版,中文代码场景适配好 中文注释代码、国内框架开发 ollama run codeqwen:7b-instruct
StarCoder2(7B) HuggingFace 出品,开源代码模型 开源项目开发、代码补全 ollama run starcoder2:7b

三、逻辑推理型(数学 / 分析 / 复杂思考)

表格

模型名称 特点 适用场景 Ollama 运行命令
Llama 3(8B) Meta 旗舰模型,综合推理能力强 通用推理、逻辑分析、决策 ollama run llama3:8b-instruct
DeepSeek-R1(7B) 深度求索推理版,数学 / 逻辑顶尖 数学计算、逻辑题、数据分析 ollama run deepseek-r1:7b
Mistral(7B) 轻量高效,推理速度快 快速逻辑判断、简单分析 ollama run mistral:7b-instruct-v0.2
Phi-3(3.8B) Microsoft 出品,小模型推理天花板 轻量化推理、低配置设备 ollama run phi3:3.8b-instruct

四、轻量化通用型(低配置设备 / 快速响应)

表格

模型名称 特点 适用场景 Ollama 运行命令
Qwen2.5(1.8B) 千问轻量版,仅 1.8B,速度极快 低配电脑 / 笔记本、快速问答 ollama run qwen2.5:1.8b-instruct
Gemma(2B) Google 出品,小模型通用能力强 轻量化日常使用、离线运行 ollama run gemma:2b-instruct

新手使用建议

  1. 首次尝试 :优先选 ollama run qwen2.5:7b-instruct(中文友好)或 ollama run llama3:8b-instruct(综合能力)。
  2. 配置有限 (8G 内存 / 无独显):选 1.8B/2B/3.8B 量级(如 phi3:3.8b-instruct),避免卡顿。
  3. 国内网络:模型下载慢可先设置 Ollama 镜像(搜索 "Ollama 国内镜像源"),或用代理。
  4. 切换模型 :运行新模型前,先执行 ollama stop 旧模型名 释放资源。

总结

  1. 中文场景优先选 通义千问 2.5(7B) ,命令:ollama run qwen2.5:7b-instruct
  2. 编程场景优先选 DeepSeek-Coder(7B) ,命令:ollama run deepseek-coder:7b-instruct
  3. 推理场景优先选 DeepSeek-R1(7B)Llama 3(8B) ,低配设备选 Phi-3(3.8B)
相关推荐
开开心心就好2 小时前
绿色版PDF多功能工具,支持编辑转换
人工智能·windows·pdf·ocr·excel·语音识别·harmonyos
idolao3 小时前
CentOS 7 安装 nginx-1.3.15.tar.gz 详细步骤(从源码编译到启动配置)
linux·运维·数据库
yaoxin5211233 小时前
358. Java IO API - 使用 relativize() 创建路径之间的相对关系
java·linux·python
武藤一雄3 小时前
C#常见面试题100问 (第一弹)
windows·microsoft·面试·c#·.net·.netcore
亚林瓜子3 小时前
linux账号强制密码过期导致私钥文件登录异常问题——(current) UNIX password:
linux·运维·服务器·ssh·aws·ec2·chage
Code_LT4 小时前
【AIGC】Claude Code Rules配置
linux·ubuntu·aigc
LXY_BUAA4 小时前
《嵌入式操作系统》_驱动框架_20260318
linux·运维·服务器
淮北也生橘124 小时前
Linux应用开发:全链路 OTA 升级架构
linux·架构·ota·linux应用开发
小黑要努力4 小时前
json-c安装以及amixer使用
linux·运维·json