DeepSeek R1本地与线上满血版部署:超详细手把手指南

一、DeepSeek R1本地部署

1、下载ollama下载地址

本人是Mac电脑,所以选第一项,下面都是以Mac环境介绍部署,下载好把ollama运行起来即可启动Ollama服务。

Ollama默认监听本地11434端口,您可以通过浏览器访问
http://localhost:11434来管理模型。

2、下载并运行指定参数的R1版本

目前有以下参数供选择

1.5b/7b/8b/14b/32b/70b/671b("b" 表示 "Billion",即 "十亿")

请根据自己电脑的配置情况合理选择合适参数,以下是参考配置

模型参数 CPU要求 内存要求 硬盘要求 显卡要求
1.5B 最低4核(推荐多核处理器) 8GB+ 3GB+存储空间(模型文件约1.5-2GB) 非必需(纯CPU推理),若GPU加速可选4GB+显存(如GTX 1650)
7B 8核以上(推荐现代多核CPU) 16GB+ 8GB+(模型文件约4-5GB) 推荐8GB+显存(如RTX 3070/4060)
8B 与7B相近,略高10-20% 与7B相近,略高10-20% 与7B相近,略高10-20% 与7B相近,略高10-20%
14B 12核以上 32GB+ 15GB+ 16GB+显存(如RTX 4090或A5000)
32B 16核以上(如AMD Ryzen 9或Intel i9) 64GB+ 30GB+ 24GB+显存(如A100 40GB或双卡RTX 3090)
70B 32核以上(服务器级CPU) 128GB+ 70GB+ 多卡并行(如2xA100 80GB或4xRTX 4090)
671B 64核以上(服务器集群) 512GB+ 300GB+ 多节点分布式训练(如8xA100/H100)
举个栗子:苹果截止2025年2月最强大的Mac Pro主机的最高配(售价近10W),配置如下:

Apple M2 Ultra (24 核中央处理器、76 核图形处理器和 32 核神经网络引擎)

192GB 统一内存

8TB 固态硬盘

这个主机上建议运行的参数如下:

DeepSeek-R1-8B:可以轻松运行,性能表现良好。

DeepSeek-R1-32B:可以运行,但需要监控内存使用情况,避免过载。

DeepSeek-R1-70B:理论上可以运行,但建议谨慎尝试,因为可能会遇到内存和 CPU 性能瓶颈。

也就是说32B可以胜任,70B就勉强凑活了,一般的普通电脑配置的,可以部署1.5b练练手,自信点的配置可以尝试7b或者8b。
  • 确定好要部署的参数(用1.5b举例),命令行执行下面的命令

    ollama run deepseek-r1:1.5b

    // 其他参数改数字即可,例如32B则 ollama run deepseek-r1:32b

安装好其实已经可以在这个终端里进行对话了。

3、使用Cherry Studio客户端集成本地部署的deepseek-r1

下载Cherry Studio下载地址

下载安装好以后,左下角设置里进行配置api地址:http://localhost:11434

配置好以后就可以聊天了,注意箭头指向模型选择你下载的[deepseek-r1:参数量级 | Ollama]

体验过官网满血版deepseek r1的小伙伴应该是不能忍受1.5b量级的回复

本地部署的优点是反应速度是相当快,且不会出现网络繁忙的提示了,这是本地部署的优势,另外一个优势是数据更安全,因为没有放到别人家的服务器上。

想要更好效果的可以尝试7b或者8b的试试,或者接着看下面的满血版R1的搭建。

// 拉取 deepseek-r1:7b 模型
ollama pull deepseek-r1:7b
Tip1:如果是局域网其他电脑想访问这台主机的deepseek R1的API,本地部署的主机可以如下操作:
export OLLAMA_HOST=0.0.0.0:11434
ollama serve

然后其他电脑下载安装Cherry Studio,并在设置里的API配置为你的ip地址:11434即可

Tip2:如果ollama输入任何命令出现如下错误
Error: something went wrong, please see the ollama server logs for details

主要是网络问题导致的,尤其是代理环境变量(终端FQ)有两种解决办法:

方法一:

# 检查http_proxy变量是否存在
echo $http_proxy

# 检查https_proxy变量是否存在
echo $https_proxy

如果输出内容了,请移除

# 移除HTTP代理环境变量
unset http_proxy

# 移除HTTPS代理环境变量
unset https_proxy

# 再检查http_proxy变量是否存在
echo $http_proxy

# 再检查https_proxy变量是否存在
echo $https_proxy

输出为空,再试试ollama命令应该就可以了。

如果你希望永久移除这些代理环境变量,可以编辑你的终端配置文件,例如编辑你的.zshrc文件(这是zsh的配置文件),并删除或注释掉其中设置代理变量的行。例如:

// 注释掉类似下面的内容
export http_proxy="http://your-proxy-server:port"
export https_proxy="http://your-proxy-server:port"

// 保存文件后再执行
source ~/.zshrc

然后稳妥起见再重启下终端,再试试ollama命令应该就可以了。

方法二:如果不想修改自己的代理环境变量,可以直接通过API操作命令代替ollama命令

官方api操作手册如下:https://github.com/ollama/ollama/blob/main/docs/api.md

举例来说:

// 终端直接运行下面命令来pull模型
curl http://你的电脑ip地址:11434/api/pull -d '{"model": "deepseek-r1:1.5b"}'

// 获取正在运行的模型
curl http://你的电脑ip地址:11434/api/ps

也就是说通过api也能操作ollama

二、满血版DeepSeek R1搭建

学会了上面的本地部署,满血版搭建就更简单了,步骤如下:

1、下载Cherry Studio,已下载请忽略 下载地址

2、登录/注册「硅基流动」,新用户会赠送 2000 万 Token 额度。 注册地址

3、点击左侧列表里的API密钥,右上角创建一个密钥,并复制

4、打开Cherry Studio,按照下图顺序填入API密钥

注意先填入API密钥,再点一下旁边的检查按钮,然后选择要检查的模型,提示连接成功就可以了

5、进入Cherry Studio聊天页面,选择DeepSeek R1模型

6、开始聊天