1. 安装 Ollama
步骤:
-
访问 Ollama 官网下载页面: Download Ollama on macOS
-
根据您的操作系统(Windows/macOS/Linux)下载对应的安装包
-
下载完成后,双击安装包进行安装
-
安装成功后,Ollama 服务会自动启动
-
验证安装是否成功: 打开终端/命令行,执行以下命令:
ollama -v
如果显示版本号(如:
ollama version 0.1.xx
),则表示安装成功
2. 部署 DeepSeek-R1 1.7B 模型
步骤:
-
在终端中执行以下命令:
ollama run deepseek-r1:1.7b
-
等待模型下载完成(下载时间取决于网络速度)
-
下载完成后会自动进入交互式命令行界面,显示提示符:
>>>
-
使用示例:
>>> 初次见面,请做个自我介绍?
模型会生成回答
-
退出交互界面:
>>> /exit
3. 查看可用模型版本
可以通过以下资源查询 Ollama 支持的所有模型: Ollama Model Library
4. 安装 Web UI(可选)
前提条件:
已安装 Miniconda3 或 Anaconda3
安装步骤:
-
安装 Open WebUI:
pip install open-webui
-
启动 Web UI 服务(使用 5555 端口):
open-webui serve --port 5555
-
启动成功后,在浏览器中访问: http://localhost:5555
-
首次使用需要创建账号,登录后即可通过网页界面与模型交互

附:Ollama常用命令
命令 | 说明 |
---|---|
ollama list |
查看已安装的模型 |
ollama run <model-name> |
运行指定模型 |
ollama pull <model-name> |
下载模型但不运行 |
/exit |
退出模型交互界面 |
/bye |
退出模型交互界面(同 /exit) |
提示 :首次运行模型时会自动下载所需文件,请确保网络连接稳定。模型文件默认存储在
~/.ollama/models
目录下(Linux/macOS)或C:\Users\<用户名>\.ollama\models
(Windows)