一份 Windows/macOS/Linux 完整安装 + 运行 + 对接 WebUI 的步骤

下面是一份 Windows /macOS/ Linux 三平台通用 的完整步骤:安装 Ollama → 运行模型 → 对接 Open WebUI,按顺序操作即可。

一、安装 Ollama(三平台)

1. Windows 安装

  1. 下载安装包:
  2. 双击 OllamaSetup.exe → 点 Install,自动完成安装。
  3. 验证安装:
    • 打开 PowerShellCMD ,输入:

      bash

      运行

      复制代码
      ollama --version
    • 显示版本号(如 0.3.14)即成功。

2. macOS 安装

  1. 下载安装包:
  2. 解压 → 把 Ollama.app 拖到 应用程序 文件夹。
  3. 验证安装:
    • 打开 终端 ,输入:

      bash

      运行

      复制代码
      ollama --version
    • 显示版本号即成功。

3. Linux 安装(Ubuntu/Debian/CentOS 等)

  1. 打开终端,执行一键安装脚本: bash

    运行

    复制代码
    curl -fsSL https://ollama.com/install.sh | sh
  2. 验证安装: bash

    运行

    复制代码
    ollama --version

二、运行 Ollama 与下载模型

1. 启动 Ollama 服务

  • Windows/macOS:安装后会自动后台运行(托盘有图标)。

  • Linux:手动启动(可选): bash

    运行

    复制代码
    ollama serve

2. 下载并运行模型(命令行)

bash

运行

复制代码
# 下载并启动 Llama 3(7B 轻量版,推荐新手)
ollama run llama3

# 或下载 Qwen 2.5(7B 中文友好)
ollama run qwen2.5:7b-instruct

# 或下载 DeepSeek R1(7B 推理强)
ollama run deepseek-r1:7b
  • 首次运行会自动下载模型(约 4--8GB),耐心等待。
  • 下载完成后直接进入聊天界面,输入问题即可对话。

3. 常用管理命令

bash

运行

复制代码
# 查看已下载模型
ollama list

# 停止运行中的模型
ollama stop llama3

# 删除模型
ollama rm llama3

三、对接 Open WebUI(可视化界面)

1. 安装 Docker(必须)

Open WebUI 推荐用 Docker 部署,先装 Docker:

验证 Docker 安装成功:

bash

运行

复制代码
docker -v

2. 启动 Open WebUI 容器

方式 A:仅用 WebUI(Ollama 已在本机)

bash

运行

复制代码
docker run -d \
  -p 3000:8080 \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main
方式 B:WebUI + Ollama 一体(推荐新手)

bash

运行

复制代码
# 有 NVIDIA GPU
docker run -d \
  -p 3000:8080 \
  --gpus=all \
  -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama

# 仅 CPU
docker run -d \
  -p 3000:8080 \
  -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama
```{insert\_element\_0\_}

### 3. 访问 WebUI 并连接 Ollama
1. 打开浏览器访问:**http://localhost:3000**
2. 首次使用:**注册管理员账号**(仅本地存储,不上云)。
3. 连接 Ollama:
   - 进入 **设置 → 连接 → Ollama**。
   - 地址:`http://localhost:11434`(默认)→ 点击 **验证连接**。
   - 显示"连接成功"即可。
4. 开始使用:
   - 顶部选择模型(如 `llama3`、`qwen2.5:7b-instruct`)。
   - 输入问题,像 ChatGPT 一样对话。

---

## 四、常见问题与优化
### 1. 模型下载慢(国内)
- 可设置代理,或用国内镜像源(搜索"Ollama 模型镜像")。

### 2. 模型存储在 C 盘(占空间)
- Windows:设置环境变量 `OLLAMA_MODELS`,指向其他盘(如 `D:\ollama_models`)。
- macOS/Linux:
  ```bash
  export OLLAMA_MODELS=/path/to/your/models

3. 速度慢(CPU 运行)

  • 优先用 7B 量化模型 (如 llama3:8bqwen2.5:7b)。
  • 有 NVIDIA GPU 可开启 CUDA 加速(Ollama 自动识别)。

五、总结

  1. 安装 Ollama → 验证 ollama --version
  2. 运行 ollama run llama3 下载并启动模型。
  3. 用 Docker 启动 Open WebUI → 访问 http://localhost:3000
  4. 连接 Ollama → 开始可视化对话。

下面整理了 按场景分类 的 Ollama 常用模型清单,每个模型都标注了特点、适用场景和直接可用的 ollama run 命令,新手优先选 7B 量级(轻量、易运行):


一、中文友好型(优先选,适配中文对话 / 创作)

表格

模型名称 特点 适用场景 Ollama 运行命令
通义千问 2.5(7B) 阿里出品,中文理解顶尖,7B 轻量 日常聊天、中文创作、问答 ollama run qwen2.5:7b-instruct
通义千问 2.5(14B) 中文能力更强,推理略优 复杂中文问答、长文本总结 ollama run qwen2.5:14b-instruct
讯飞星火 V4(7B) 讯飞出品,中文语音 / 文本兼顾 中文对话、本地化场景 ollama run spark:7b
Baichuan 3(7B) 百川大模型,中文闲聊 / 写作优秀 中文创作、生活化问答 ollama run baichuan3:7b

二、代码编程型(写代码 / 调试 / 解释)

表格

模型名称 特点 适用场景 Ollama 运行命令
CodeLlama(7B) Meta 官方代码模型,支持多语言 基础代码编写、语法解释 ollama run codellama:7b-code
DeepSeek-Coder(7B) 深度求索,代码能力顶尖,支持中文注释 复杂代码编写、调试、重构 ollama run deepseek-coder:7b-instruct
CodeQwen(7B) 千问代码版,中文代码场景适配好 中文注释代码、国内框架开发 ollama run codeqwen:7b-instruct
StarCoder2(7B) HuggingFace 出品,开源代码模型 开源项目开发、代码补全 ollama run starcoder2:7b

三、逻辑推理型(数学 / 分析 / 复杂思考)

表格

模型名称 特点 适用场景 Ollama 运行命令
Llama 3(8B) Meta 旗舰模型,综合推理能力强 通用推理、逻辑分析、决策 ollama run llama3:8b-instruct
DeepSeek-R1(7B) 深度求索推理版,数学 / 逻辑顶尖 数学计算、逻辑题、数据分析 ollama run deepseek-r1:7b
Mistral(7B) 轻量高效,推理速度快 快速逻辑判断、简单分析 ollama run mistral:7b-instruct-v0.2
Phi-3(3.8B) Microsoft 出品,小模型推理天花板 轻量化推理、低配置设备 ollama run phi3:3.8b-instruct

四、轻量化通用型(低配置设备 / 快速响应)

表格

模型名称 特点 适用场景 Ollama 运行命令
Qwen2.5(1.8B) 千问轻量版,仅 1.8B,速度极快 低配电脑 / 笔记本、快速问答 ollama run qwen2.5:1.8b-instruct
Gemma(2B) Google 出品,小模型通用能力强 轻量化日常使用、离线运行 ollama run gemma:2b-instruct

新手使用建议

  1. 首次尝试 :优先选 ollama run qwen2.5:7b-instruct(中文友好)或 ollama run llama3:8b-instruct(综合能力)。
  2. 配置有限 (8G 内存 / 无独显):选 1.8B/2B/3.8B 量级(如 phi3:3.8b-instruct),避免卡顿。
  3. 国内网络:模型下载慢可先设置 Ollama 镜像(搜索 "Ollama 国内镜像源"),或用代理。
  4. 切换模型 :运行新模型前,先执行 ollama stop 旧模型名 释放资源。

总结

  1. 中文场景优先选 通义千问 2.5(7B) ,命令:ollama run qwen2.5:7b-instruct
  2. 编程场景优先选 DeepSeek-Coder(7B) ,命令:ollama run deepseek-coder:7b-instruct
  3. 推理场景优先选 DeepSeek-R1(7B)Llama 3(8B) ,低配设备选 Phi-3(3.8B)
相关推荐
ulias2124 小时前
Linux系统中的权限问题
linux·运维·服务器
mzhan0176 小时前
Linux: lock: preempt_count 是一个线程级别的变量
linux·lock
韭菜钟7 小时前
WIndows下一键切换网卡IP脚本
windows·网络协议·tcp/ip
Dream of maid7 小时前
Linux(下)
linux·运维·服务器
齐鲁大虾7 小时前
统信系统UOS常用命令集
linux·运维·服务器
Dontla7 小时前
go语言Windows安装教程(安装go安装Golang安装)(GOPATH、Go Modules)
开发语言·windows·golang
ZzzZZzzzZZZzzzz…7 小时前
Nginx 平滑升级:从 1.26.3 到 1.28.0,用户无感知
linux·运维·nginx·平滑升级·nginx1.26.3·nginx1.28.0
一叶知秋yyds9 小时前
Ubuntu 虚拟机安装 OpenClaw 完整流程
linux·运维·ubuntu·openclaw
liliangcsdn10 小时前
mstsc不在“C:\Windows\System32“下在C:\windows\WinSxS\anmd64xxx“问题分析
开发语言·windows
低频电磁之道11 小时前
解决 Windows C++ DLL 导出类不可见的编译错误
c++·windows