Dify开源平台部署与实战指南:企业级大模型工作流应用搭建

此前我们分享了基于 Langchain-Chatchat 的大模型本地化部署方案,依托 LangChain 的组件化生态,该方案能快速实现 RAG 知识库与基础函数调用能力的整合,满足个人及中小企业轻量化的私有问答需求。
  今天,我们将介绍另一款更适配企业级生产场景的大模型部署架构 ------Dify。作为开源的低代码大模型应用开发平台,Dify 以可视化编排为核心特色,不仅具备更完善的函数调用能力,支持参数自动校验、智能追问与多函数并行,还提供 Docker 一键部署、权限管理、日志监控等生产级特性,助力开发者高效搭建稳定可靠的大模型应用。


1 Dify安装

1.1 安装要求

  • CPU >= 2 Core
  • RAM >= 4 GiB
    该配置门槛极低,即便入门级开发板也能满足运行需求,极大降低了企业与个人的部署成本。

1.2 安装要求

Dify依赖Docker环境运行,若尚未安装Docker,可参考我之前发布的相关教程。安装完成Docker后,按以下步骤部署Dify:

安装完成Docker之后使用以下命令安装dify:

shell 复制代码
# 克隆Dify源码仓库
git clone https://github.com/langgenius/dify.git
# 进入项目目录
cd dify
# 切换至Docker部署目录
cd docker
# Windows系统需手动复制.env.example并重命名为.env,Linux/Mac可执行以下命令
cp .env.example .env
# 启动Docker容器,后台运行
docker compose up -d

注:若克隆源码或拉取镜像失败,可尝试更换国内镜像源或通过科学上网解决网络问题。

部署完成后,在本地浏览器访问 http://localhost/install,进入Dify初始化配置界面:

完成初始化配置并登录后,即可进入Dify主控制台,正式开启应用搭建:

2 Dify使用

2.1 聊天助手搭建与使用

2.1.1 设置模型供应商

设置之前,首先确保你有大模型推理框架,比如说Ollama、xinference等,如果不知道怎么安装的可以看我之前写的文章:
Windows| DeepSeek最简单的本地部署方法
Windows 平台 Xinference 安装指北教程

推理框架部署完成后,按以下步骤配置Dify模型供应商:

Dify原生支持Ollama、Xinference等主流推理框架,按需选择即可:

我们选择ollama,然后安装,安装完成后可以配置密钥:

点击添加模型->新添加模型,然后出现以下界面:

填写模型信息与宿主机IP后,点击「添加」即可完成配置。
关于IP配置的说明:
host.docker.internal 是Docker官方为Windows/Mac平台(Docker Desktop)内置的特殊DNS域名,核心作用是让Docker容器内部直接访问宿主机本机的所有服务(对应宿主机的127.0.0.1/localhost)。本质是Docker封装的宿主机IP映射快捷方式,无需手动写死宿主机真实IP,提升部署灵活性。

2.1.2 模型连通性测试

模型配置完成后,通过创建聊天助手应用测试连通性:

  1. 选择「聊天助手」,点击「创建空白应用」:

  2. 输入应用名称与描述,点击「创建」:

  3. 进入对话界面,输入测试内容即可验证模型响应能力:

2.2 Agent工具调用实战

2.2.1 Agent应用创建

Dify的Agent具备知识库与第三方工具调用能力,可根据用户需求自动匹配工具分析问题(如查询实时时间需调用时间工具)。创建Agent应用步骤如下:

  1. 点击「Agent」,选择「创建空白应用」:
  2. 输入应用名称和描述,然后点击创建:
  3. 添加工具:
  4. 创建完成后,Agent可自动识别用户意图并调用对应工具,例如查询当前时间时,会触发工具调用逻辑获取结果:

2.2.2 MCP服务注册与集成

若需调用自定义工具,需先搭建MCP服务器并在Dify中注册,MCP服务器搭建教程可参考:基于 LLM 的 MCP 架构实战:服务端搭建、工具开发与 Dify 集成全流程,以下为Dify中MCP服务的注册步骤:

  1. 进入Dify后台,点击「工具」→「添加MCP服务」,进入配置页面:
  2. 按要求填写MCP服务参数,完成配置:

    配置提交后,Dify会自动校验服务连通性,并加载MCP服务中注册的所有工具函数,完成服务与LLM平台的绑定:

2.2.3 MCP服务调用测试

  1. 创建专属Agent应用,完成基本配置:

    按照下图所示完成 Agent 的基本配置:

    2.在Agent工具配置模块,点击「添加」,选中已注册的MCP工具函数,完成绑定:

    3.在对话界面发起业务请求,触发LLM自动调用MCP工具,获取返回结果:

    实际测试中可看到,Dify 中的 LLM 能精准识别用户意图,自动调用对应的get_zhangsan_info和get_weather函数,MCP 服务端正常响应并返回标准化数据,工具调用链路通畅,结果返回准确:

总结

本文此前分享了基于 Langchain-Chatchat 的轻量化私有问答部署方案,此次聚焦企业级生产场景,介绍开源低代码平台 Dify 的部署与使用。Dify 以可视化编排为核心,具备完善的函数调用、参数校验、权限管理等生产级特性,Docker 一键部署即可完成,最低仅需 2 核 CPU、4GiB 内存。安装后通过http://localhost/install完成初始化,后续需先配置模型供应商(支持 Ollama、Xinference 等,容器内通过 host.docker.internal 访问宿主机服务),再创建 Agent 空白应用即可启用。该方案适配企业级稳定需求,助力开发者高效搭建大模型应用,兼顾易用性与生产级可靠性。

相关推荐
兆龙电子单片机设计2 小时前
【STM32项目开源】STM32单片机智慧农业大棚控制系统
stm32·单片机·物联网·开源·毕业设计
IT陈图图4 小时前
跨端之旅:Flutter × OpenHarmony 构建旅行记录应用的搜索栏
flutter·开源·鸿蒙·openharmony
时光慢煮4 小时前
行旅迹 · 基于 Flutter × OpenHarmony 的旅行记录应用— 构建高体验旅行记录列表视图的跨端实践
flutter·华为·开源·openharmony
时光慢煮4 小时前
行走的记忆卡片:基于 Flutter × OpenHarmony 的旅行记录应用实践——单个旅行记录卡片构建详解
flutter·华为·开源·openharmony
用什么都重名4 小时前
【Dify 实战踩坑】工作流可运行但 MCP 服务部署失败(503)的问题定位与彻底解决
人工智能·docker·dify·mcp服务
时光慢煮4 小时前
行走在多端之间:基于 Flutter × OpenHarmony 的旅行记录应用实践 —— 旅行详情查看模块解析
flutter·华为·开源·wpf·openharmony
名为沙丁鱼的猫7294 小时前
【并行化】提升智能体效率的关键设计模式,同时执行独立任务缩短响应时间
人工智能·深度学习·机器学习·自然语言处理·nlp
时光慢煮5 小时前
基于 Flutter × OpenHarmony 的旅行记录应用实践 —— 添加新的旅行记录
flutter·华为·开源·openharmony
时光慢煮5 小时前
Flutter × OpenHarmony 跨端旅行记录应用:构建旅行类型选择器
flutter·华为·开源·openharmony