DeepSeek 本地部署

1. 安装 Ollama

步骤:

  1. 访问 Ollama 官网下载页面: Download Ollama on macOS

  2. 根据您的操作系统(Windows/macOS/Linux)下载对应的安装包

  3. 下载完成后,双击安装包进行安装

  4. 安装成功后,Ollama 服务会自动启动

  5. 验证安装是否成功: 打开终端/命令行,执行以下命令:

    复制代码
    ollama -v

    如果显示版本号(如:ollama version 0.1.xx),则表示安装成功

2. 部署 DeepSeek-R1 1.7B 模型

步骤:

  1. 在终端中执行以下命令:

    复制代码
    ollama run deepseek-r1:1.7b
  2. 等待模型下载完成(下载时间取决于网络速度)

  3. 下载完成后会自动进入交互式命令行界面,显示提示符:

    复制代码
    >>>
  4. 使用示例:

    复制代码
    >>> 初次见面,请做个自我介绍?

    模型会生成回答

  5. 退出交互界面:

    复制代码
    >>> /exit

3. 查看可用模型版本

可以通过以下资源查询 Ollama 支持的所有模型: Ollama Model Library

4. 安装 Web UI(可选)

前提条件:

已安装 Miniconda3 或 Anaconda3

安装步骤:

  1. 安装 Open WebUI:

    复制代码
    pip install open-webui
  2. 启动 Web UI 服务(使用 5555 端口):

    复制代码
    open-webui serve --port 5555
  3. 启动成功后,在浏览器中访问: http://localhost:5555

  4. 首次使用需要创建账号,登录后即可通过网页界面与模型交互


附:Ollama常用命令

命令 说明
ollama list 查看已安装的模型
ollama run <model-name> 运行指定模型
ollama pull <model-name> 下载模型但不运行
/exit 退出模型交互界面
/bye 退出模型交互界面(同 /exit)

提示 :首次运行模型时会自动下载所需文件,请确保网络连接稳定。模型文件默认存储在 ~/.ollama/models 目录下(Linux/macOS)或 C:\Users\<用户名>\.ollama\models(Windows)