AI工作流平台Dify本地部署

Dify 是一个支持通过AI工作流的形式,开发AI应用的开源平台,他相比 LangChain 更加的易用,甚至零代码即可创建你的AI应用。

功能 Dify.AI LangChain Flowise OpenAI Assistant API
编程方法 API + 应用程序导向 Python 代码 应用程序导向 API 导向
支持的 LLMs 丰富多样 丰富多样 丰富多样 仅限 OpenAI
RAG引擎
Agent
工作流
可观测性
企业功能(SSO/访问控制)
本地部署

所谓AI工作流,就是能将多个AI的输入输出进行关联,还可以在任意环节加入知识库,数据库,python/JS脚本,插件等进行高度定制处理的流式工作空间。

通过使用工作流的形式组织多个AI各司其职,可以实现更复杂功能,例如私有知识库RAG,模型管理,AI应用。

下面我将详细知道你搭建本地Dify,并在Dify中配置AI模型。

安装Dify

下载源码

将Dify的源码克隆到本地

bash 复制代码
git clone https://github.com/langgenius/dify.git

使用Docker安装

如果你还没有Dokcer,可以前往官网下载 Docker Desktop 一键安装Docker

进入docker文件夹,在文件夹下执行命令行,拷贝环境配置文件

bash 复制代码
cp .env.example .env

然后从当前文件夹内找到 docker-compose.yaml 文件,使用它可以便捷的安装Dify

默认 docker-compose.yaml 文件的配置,安装的Dify会在80端口启动,如果不想80端口被占用,可以打开该文件,修改 nginx 配置

通过命令行使用docker-compose安装Dify

yaml 复制代码
docker compose up -d
​
# 正常返回
[+] Running 74/9
 ✔ db Pulled                                                    834.2s
 ✔ sandbox Pulled                                              1120.7s
 ✔ weaviate Pulled                                              526.5s
 ✔ web Pulled                                                   174.0s
 ✔ redis Pulled                                                 893.7s
 ✔ api Pulled                                                  2919.8s
 ✔ worker Pulled                                               2919.8s
 ✔ ssrf_proxy Pulled                                            494.0s
 ✔ nginx Pulled                                                 184.7s
[+] Running 11/11
 ✔ Network docker_default             Created                     0.0s
 ✔ Network docker_ssrf_proxy_network  Created                     0.0s
 ✔ Container docker-db-1              Started                     1.1s
 ✔ Container docker-web-1             Started                     1.1s
 ✔ Container docker-redis-1           Started                     1.1s
 ✔ Container docker-sandbox-1         Started                     1.1s
 ✔ Container docker-weaviate-1        Started                     1.1s
 ✔ Container docker-ssrf_proxy-1      Started                     1.1s
 ✔ Container docker-api-1             Started                     0.7s
 ✔ Container docker-worker-1          Started                     0.7s
 ✔ Container docker-nginx-1           Started                     0.8s

等待命令安装完成,打开Docker Desktop或者通过命令行即可查看到安装好的Dify包含的所有镜像

在Docker中启动Dify容器,打开浏览器访问 http://localhost:80/install

初次登录需要设置管理员账号密码,然后使用账号密码登录即可进入到平台,至此你的Dify就安装好了

配置AI模型

我们的目的是制作AI应用,所在创建应用之前,你需要在Dify上配置可供平台使用的大模型。你可以通过调用大模型的API进行使用,也可以部署自己的本地大模型私有化使用。

第三方AI模型

你可以直接配置第三方模型的API-KEY调用,通过"设置"-"模型供应商"找到对应的模型,设置你的API-KEY即可添加

配置保存后,模型即可在AI应用中使用。

本地AI模型

如果是打算做私有化的应用,则需要本地的AI模型来保护隐私,就需要部署本地的AI模型。

部署本地模型

本地模型可以使用 Ollama 进行部署,部署指南可以参考《DeepSeek-R1私有化部署》

使用本地模型

部署完成本地AI模型,就可以在设置的模型供应商中找到 Ollama ,点击添加模型

填写模型名称,这里需要填写Ollama中正确完整的模型名称,你可以通过命令行 ollama list 指令查看

makefile 复制代码
Ollama list
​
NAME                  ID              SIZE      MODIFIED
llama3.2:latest       a80c4f17acd5    2.0 GB    41 minutes ago
deepseek-r1:latest    0a8c26691023    4.7 GB    26 hours ago
deepseek-r1:7b        0a8c26691023    4.7 GB    11 days ago

配置Ollama的访问路径,这里使用域名 localhost 可能无法访问,因为是docker服务,建议使用 host.docker.internal 域名

添加模型后,在Dify上创建AI应用的时候,大模型节点即可选择对应模型进行处理了。

到此Dify的本地搭建工作就完成了,建议你继续阅读《Dify搭建私有化RAG应用》,通过实操来学习如何创建一个AI工作流应用。

相关推荐
高洁015 小时前
大模型-详解 Vision Transformer (ViT) (2
深度学习·算法·aigc·transformer·知识图谱
沉迷单车的追风少年8 小时前
Diffusion Models与视频超分(3): 解读当前最快和最强的开源模型FlashVSR
人工智能·深度学习·计算机视觉·aigc·音视频·视频生成·视频超分
墨风如雪18 小时前
震撼业界:文心5.0 Preview登顶全球第二,创意写作能力亮眼!
aigc
领航猿1号21 小时前
DeepSeek-OCR 上下文光学压缩详解与本地部署及vLLM推理
人工智能·aigc·ocr
量子位1 天前
机器人“会用手”了!银河通用首破手掌任意朝向旋转难题,拧螺丝、砸钉子样样精通
人工智能·aigc
程序员X小鹿1 天前
2025最火的4个国产AI音乐工具全面评测,最后两个完全免费!(建议收藏)
aigc
后端小肥肠1 天前
Coze+n8n实战:公众号文章从仿写到草稿箱,2分钟全搞定,你只需提交链接!
aigc·agent·coze
SEOETC1 天前
AIGC|杭州AI优化企业新榜单与选择指南
人工智能·ai·aigc
海蓝可知天湛1 天前
Ubuntu24.10禁用该源...+vmware无法复制黏贴“天坑闭环”——从 DNS 诡异解析到 Ubuntu EOL 引发的 apt 404排除折腾记
linux·服务器·安全·ubuntu·aigc·bug
Rolei_zl1 天前
AIGC(生成式AI)试用 40 -- 程序(Python + OCR)-2
python·aigc