本地运行 Ollama 与 DeepSeek R1 1.5B,并结合 Open WebUI 测试

在本篇博客中,我将分享如何在本地通过 Ollama 部署并运行 DeepSeek R1 1.5B 模型,并结合 Open WebUI 提供可视化交互界面,方便测试模型效果。

一、前置准备

请确保你已经具备以下环境:

  • Windows / macOS / Linux 系统

  • 已经安装 DockerDocker Desktop

  • 已经安装 Ollama

安装 Ollama

安装完成后,执行:

复制代码
ollama --version

若能正常显示版本号,说明 Ollama 已成功安装。

二、运行 DeepSeek R1 1.5B 模型

Ollama 提供了直接拉取并运行模型的方式,只需执行:

复制代码
ollama run deepseek-r1:1.5b

首次运行时会自动拉取 deepseek-r1:1.5b 模型文件(可能较大,需耐心等待)。

如果希望以后台服务方式运行,可以执行:

复制代码
ollama serve

这会在本地启动 Ollama API 服务(默认地址为 http://localhost:11434)。

如果是在本地,直接安装完ollama之后,直接启动ollama就可以了。

三、结合 Open WebUI 本地测试

  1. 确保本地已经安装并运行 Docker Desktop

  2. 在终端(Windows PowerShell / macOS / Linux Shell)中运行:

    docker run -d
    --name open-webui
    -p 3000:8080
    -e OLLAMA_HOST=http://host.docker.internal:11434
    ghcr.io/open-webui/open-webui:latest

说明:

  • -p 3000:8080 表示本地访问端口为 http://localhost:3000

  • OLLAMA_HOST 设置为 Ollama 本地服务地址

  1. 打开浏览器,访问:

    http://localhost:3000

如果你没有docker desktop

运行下面两个命令

复制代码
pip install open-webui
open-webui serve

即可进入 Open WebUI 界面。

  1. 在设置中选择 deepseek-r1:1.5b,保存后即可直接与模型交互。

四、总结

通过以上步骤,你就可以在本地:

  1. 安装并运行 Ollama

  2. 拉取并启动 DeepSeek R1 1.5B 模型

  3. 部署 Open WebUI 提供可视化界面

这样,你可以轻松在 本地环境 中测试与使用大模型,无需依赖远程服务器,既安全又高效。