一、基础信息
1、硬件环境:
CPU >= 2 Core
显存/RAM ≥ 16 GiB(推荐)
2、软件
(1)Ollama
Ollama 是一款跨平台的大模型管理客户端(MacOS、Windows、Linux),旨在无缝部署大型语言模型 (LLM),例如 DeepSeek、Llama、Mistral 等。Ollama 提供大模型一键部署,所有使用数据均会保存在本地机器内,提供全方面的数据隐私和安全性。
(2)Dify
Dify 作为同样开源的 AI 应用开发平台,提供完整的私有化部署方案。通过将本地部署的 DeepSeek 服务无缝集成到 Dify 平台,企业可以在确保数据隐私的前提下,在本地服务器环境内构建功能强大的 AI 应用。
(3)docker
需要使用docker拉取镜像并运行,简化部署逻辑
二、部署DeepSeek-R1
1、部署Ollama
(1)打开官网
(2)下载对应系统的Ollama
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250208161127456-223288974.png)
(3)安装
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250208161349628-1260523306.png)
(4)验证--终端执行
ollama -v
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250208161620682-14965065.png)
2、使用ollama安装DeepSeek-r1模型
(1)ollama安装DeepSeek模型
ollama run deepseek-r1:7b
注:根据本机配置,选择合适的DeepSeek模型进行部署。本机推荐安装 7B 尺寸模型,大约需要拉取4.7GB数据,可以在ollama官网搜索模型,查看模型大小
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250208162209578-1460737862.png)
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250208163309562-1634026087.png)
(2)安装后验证
安装完成,直接输入问题即可,可以看到回复信息
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250208175828474-934124902.png)
三、部署Dify社区版
1、下载代码
(1)git方式下载
git clone https://github.com/langgenius/dify.git
(2)web方式下载
打开链接:https://github.com/langgenius/dify.git
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250210113950466-413003741.png)
2、进入目录
cd dify/docker
3、复制配置文件
cp .env.example .env
4、docker配置代理(已配置的话可以忽略该步骤)
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250210114249897-509258789.png)
内容如下:
"registry-mirrors": [
"https://dockerpull.org",
"https://docker.1panel.dev",
"https://docker.foreverlink.love",
"https://docker.fxxk.dedyn.io",
"https://docker.xn--6oq72ry9d5zx.cn",
"https://docker.zhai.cm",
"https://docker.5z5f.com",
"https://a.ussh.net",
"https://docker.cloudlayer.icu",
"https://hub.littlediary.cn",
"https://hub.crdz.gq",
"https://docker.unsee.tech",
"https://docker.kejilion.pro",
"https://registry.dockermirror.com",
"https://hub.rat.dev",
"https://dhub.kubesre.xyz",
"https://docker.nastool.de",
"https://docker.udayun.com",
"https://docker.rainbond.cc",
"https://hub.geekery.cn",
"https://docker.1panelproxy.com",
"https://atomhub.openatom.cn",
"https://docker.m.daocloud.io",
"https://docker.1ms.run",
"https://docker.linkedbus.com"
]
5、使用docker拉取镜像并运行
docker compose up -d
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250210114330946-1913227719.png)
四、设置 DeepSeek 接入至 Dify
1、浏览器打开dify,初始化管理员信息
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250210114648682-1073165247.png)
2、设置模型
右上角头像==》设置==》模型供应商==》Ollama
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250210115027850-1332079577.png)
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250210115112258-98445734.png)
3、设置模型信息
基础url:http://127.0.0.1:11434
![](https://img2024.cnblogs.com/blog/2350829/202502/2350829-20250210115424737-1091437064.png)
参考文章:
1、在MAC系统下安装Docker、Dify以及docker镜像加速
https://cloud.tencent.com/developer/article/2478585
2、本地搭建Dify