一、DeepSeek R1本地部署
1、下载ollama下载地址

本人是Mac电脑,所以选第一项,下面都是以Mac环境介绍部署,下载好把ollama运行起来即可启动Ollama服务。
Ollama默认监听本地11434端口,您可以通过浏览器访问
http://localhost:11434来管理模型。
2、下载并运行指定参数的R1版本
目前有以下参数供选择
1.5b/7b/8b/14b/32b/70b/671b("b" 表示 "Billion",即 "十亿")
请根据自己电脑的配置情况合理选择合适参数,以下是参考配置
模型参数 | CPU要求 | 内存要求 | 硬盘要求 | 显卡要求 |
---|---|---|---|---|
1.5B | 最低4核(推荐多核处理器) | 8GB+ | 3GB+存储空间(模型文件约1.5-2GB) | 非必需(纯CPU推理),若GPU加速可选4GB+显存(如GTX 1650) |
7B | 8核以上(推荐现代多核CPU) | 16GB+ | 8GB+(模型文件约4-5GB) | 推荐8GB+显存(如RTX 3070/4060) |
8B | 与7B相近,略高10-20% | 与7B相近,略高10-20% | 与7B相近,略高10-20% | 与7B相近,略高10-20% |
14B | 12核以上 | 32GB+ | 15GB+ | 16GB+显存(如RTX 4090或A5000) |
32B | 16核以上(如AMD Ryzen 9或Intel i9) | 64GB+ | 30GB+ | 24GB+显存(如A100 40GB或双卡RTX 3090) |
70B | 32核以上(服务器级CPU) | 128GB+ | 70GB+ | 多卡并行(如2xA100 80GB或4xRTX 4090) |
671B | 64核以上(服务器集群) | 512GB+ | 300GB+ | 多节点分布式训练(如8xA100/H100) |
举个栗子:苹果截止2025年2月最强大的Mac Pro主机的最高配(售价近10W),配置如下:
Apple M2 Ultra (24 核中央处理器、76 核图形处理器和 32 核神经网络引擎)
192GB 统一内存
8TB 固态硬盘
这个主机上建议运行的参数如下:
DeepSeek-R1-8B:可以轻松运行,性能表现良好。
DeepSeek-R1-32B:可以运行,但需要监控内存使用情况,避免过载。
DeepSeek-R1-70B:理论上可以运行,但建议谨慎尝试,因为可能会遇到内存和 CPU 性能瓶颈。
也就是说32B可以胜任,70B就勉强凑活了,一般的普通电脑配置的,可以部署1.5b练练手,自信点的配置可以尝试7b或者8b。
-
确定好要部署的参数(用1.5b举例),命令行执行下面的命令
ollama run deepseek-r1:1.5b
// 其他参数改数字即可,例如32B则 ollama run deepseek-r1:32b
安装好其实已经可以在这个终端里进行对话了。
-
打开浏览器,访问
http://localhost:11434,确保模型加载成功,可以查看模型的运行状态。
显示如下内容则说明模型已经加载成功了Ollama is running
3、使用Cherry Studio客户端集成本地部署的deepseek-r1
下载Cherry Studio下载地址
下载安装好以后,左下角设置里进行配置api地址:http://localhost:11434
配置好以后就可以聊天了,注意箭头指向模型选择你下载的[deepseek-r1:参数量级 | Ollama]
体验过官网满血版deepseek r1的小伙伴应该是不能忍受1.5b量级的回复
本地部署的优点是反应速度是相当快,且不会出现网络繁忙的提示了,这是本地部署的优势,另外一个优势是数据更安全,因为没有放到别人家的服务器上。
想要更好效果的可以尝试7b或者8b的试试,或者接着看下面的满血版R1的搭建。
// 拉取 deepseek-r1:7b 模型
ollama pull deepseek-r1:7b
Tip1:如果是局域网其他电脑想访问这台主机的deepseek R1的API,本地部署的主机可以如下操作:
export OLLAMA_HOST=0.0.0.0:11434
ollama serve
然后其他电脑下载安装Cherry Studio,并在设置里的API配置为你的ip地址:11434即可
Tip2:如果ollama输入任何命令出现如下错误
Error: something went wrong, please see the ollama server logs for details
主要是网络问题导致的,尤其是代理环境变量(终端FQ)有两种解决办法:
方法一:
# 检查http_proxy变量是否存在
echo $http_proxy
# 检查https_proxy变量是否存在
echo $https_proxy
如果输出内容了,请移除
# 移除HTTP代理环境变量
unset http_proxy
# 移除HTTPS代理环境变量
unset https_proxy
# 再检查http_proxy变量是否存在
echo $http_proxy
# 再检查https_proxy变量是否存在
echo $https_proxy
输出为空,再试试ollama命令应该就可以了。
如果你希望永久移除这些代理环境变量,可以编辑你的终端配置文件,例如编辑你的.zshrc文件(这是zsh的配置文件),并删除或注释掉其中设置代理变量的行。例如:
// 注释掉类似下面的内容
export http_proxy="http://your-proxy-server:port"
export https_proxy="http://your-proxy-server:port"
// 保存文件后再执行
source ~/.zshrc
然后稳妥起见再重启下终端,再试试ollama命令应该就可以了。
方法二:如果不想修改自己的代理环境变量,可以直接通过API操作命令代替ollama命令
官方api操作手册如下:https://github.com/ollama/ollama/blob/main/docs/api.md
举例来说:
// 终端直接运行下面命令来pull模型
curl http://你的电脑ip地址:11434/api/pull -d '{"model": "deepseek-r1:1.5b"}'
// 获取正在运行的模型
curl http://你的电脑ip地址:11434/api/ps
也就是说通过api也能操作ollama
二、满血版DeepSeek R1搭建
学会了上面的本地部署,满血版搭建就更简单了,步骤如下:
1、下载Cherry Studio,已下载请忽略 下载地址
2、登录/注册「硅基流动」,新用户会赠送 2000 万 Token 额度。 注册地址
3、点击左侧列表里的API密钥,右上角创建一个密钥,并复制

4、打开Cherry Studio,按照下图顺序填入API密钥
注意先填入API密钥,再点一下旁边的检查按钮,然后选择要检查的模型,提示连接成功就可以了
5、进入Cherry Studio聊天页面,选择DeepSeek R1模型

6、开始聊天
