1.前言
2025年7月10日 开源项目Dify v1.6.0 正式发布。本次升级有一个重要的功能升级就是原生集成了双向模型上下文协议(Model Context Protocol, MCP)。这并非简单的功能叠加,而是一次深刻的架构升级,它旨在标准化 Dify 应用与外部工具的交互方式,更关键的是,也定义了 Dify 应用如何被其他 AI 系统消费 。
对于开发者和企业而言,v1.6.0 带来的核心价值显而易见:
- 简化的互操作性:极大地降低了将 Dify 智能体连接到日益增长的 MCP 兼容服务(如 Zapier、Linear、Notion 等)生态的复杂性 。
- 增强的可重用性:使开发者能够在 Dify 内部构建复杂的工作流和智能体,并将其作为标准化的、可重用的"AI 微服务"暴露给其他客户端(如 Claude 或 Cursor) 。
- 生产级稳定性强化:本次发布包含了大量旨在提升可靠性、性能和安全性的增强与修复,例如引入了 Redis 备用机制、批量嵌入优化以及更完善的验证功能,进一步巩固了其生产环境的可用性 。
下面个表格是一个本次升级重要特点:
功能 / 增强 | 类别 | 主要受益者 | 价值主张与影响 |
原生双向 MCP 支持 | 核心功能 | 智能体开发者,企业架构师 | 彻底简化与外部工具的集成;使 Dify 应用能成为更广泛 AI 生态系统中的可重用组件。为应用提供面向未来的保障。 |
知识库(KB)索引 | RAG / 性能 | RAG 应用构建者 | 优化数据检索速度和访问效率,为知识密集型应用提升性能和用户体验。 |
Redis 备用机制 | 可靠性 / 运维 | 平台管理员,DevOps | 提高数据弹性和系统稳定性,为生产部署确保更高的正常运行时间和鲁棒性。 |
SSL 验证开关(HTTP 节点) | 集成 / 安全 | 企业开发者,DevOps | 实现了在采用自定义 SSL 证书的企业网络中的无缝集成,消除了一个常见的部署障碍。 |
模型供应商验证 | 可靠性 / 运维 | 应用构建者,管理员 | 通过预先验证模型凭证和配置来防止运行时错误,从而提高工作流的可靠性。 |
主题列表支持拖拽排序 | UI/UX | 应用构建者 | 通过简化应用组件的组织和管理来改善开发者体验。 |
批量嵌入优化 | RAG / 性能 | RAG 应用构建者 | 加速 RAG 管道的数据摄取过程,尤其对于大型数据集,并提高与 Qdrant 等服务的可靠性。 |
结构化输出插件 API | 智能体开发 | 智能体开发者 | 提供从 LLM 获取结构化数据(JSON)的可靠方法,这对于构建可预测的多步骤智能体工作流至关重要。 |
今天就带大家体验一下本次版本的新功能。
2.升级部署
本次我们在我的极空间NAS平台上部署这个最新dify1.6.0版本。
下载源码
我们需要下载最新的1.6 版本的源码,地址github.com/langgenius/...

接下来我们使用SSH方式进入极空间当前代码目录
shell
cd /tmp/zfsv3/sata1/17095728812/data/dockervolume/dify1.6.0

启动 (极空间安装dify )
shell
cd docker
docker-compose -f docker-compose.yaml up -d

命令行执行后程序会根据docker-compose.yaml 镜像配置文件会自动下载最新的1.6.0 镜像

这个时间会有点长我们耐心等待。

看到上面的画面,说明我们dify程序已经启动成功。
我们也可以在极空间图形化管理界面查看

运行访问dify
我们使用浏览器输入如下地址http://192.168.1.5:81/apps

第一次登录会输入管理员账号和密码,我在极空间是重新安装所以需要重新设置。
登录后进入dify工作台,点击右上角关于查看版本

以上我们就完成极空间上新安装dify1.6.0版本了。dify模型配置这里就详细展开了。
3.1.6版本新功能
接下来我们说一下1.6版本新功能。上面我们提到1.6版本最核心的新功能就是内置双向 MCP 支持。
在最新的 Dify 发布版本中,MCP 双向内置:
这样可以实现更快、更可靠的集成,并更容易扩展功能。
下面我们来分别介绍上述新功能。
配置一个 MCP 服务作为工具
在工具页面,选择 MCP 并添加,后面添加的MCP 服务是我之前写的一个中药的mcp-server。感兴趣小伙伴可以看我之前的文章。
mcp-server案例分享-一文解锁:豆包模型打造中药短视频 MCP 服务全攻略
设置
-
工具 > MCP > 添加 MCP 服务
-
输入线性 MCP URL、显示名称和服务器标识符。
这里我们填写我们之前做的一个中药MCP-Server

3.授权完成

Agent
接下来我们创建一个Agent。

接下来我们在工具列表中添加MCP


简单输入问题:请给我画一个"麻黄" 中药图片


OK 确实通过 MCP 调用我们之前做好的中药MCP-Server。
发布您的 AI 作为 MCP 服务
任何 Dify 代理或工作流都可以作为标准 MCP 端点进行暴露:
- 服务描述:简洁地说明工作流的功能,以便外部 LLMs 知道何时调用它。
- 参数描述:在起始节点处记录每个输入,以确保客户端传递正确的值。
接下来我们导入我之前做的一个简单的翻译chatflow. 点开工作流分享。1.6版本会多出一个MCP服务

这样我们就创建了一个MCP服务的(sse)访问链接

我们点击复制,然后在第三方cursor 、trae、Cherry Studio 中使用。
Cherry Studio
我们打开电脑Cherry Studio,配置mcp 服务器

我们点击保存完成设置。
我们使用cherry studio 在带有中英文翻译的MCP-Server 来实现简单文本翻译。

这样我们就实现一个把dify的一个工作流转成MCP-Server 让第三方mcp-client调用了。
trae
接下来我们在测试一下trae
添加 zhongyao-mcp-server-dify
json
{
"mcpServers": {
"zhongyao-mcp-server-dify": {
"url": "http://192.168.1.5:81/mcp/server/9D45mUGfBDBoRmYb/mcp"
}
}
}


配置完成后,我们接下来使用这个MCP 做一下测试。

通过上面的截图,我们在trae也完成了mcp-server的调用。
4.总结
今天主要带大家体验了开源项目 Dify v1.6.0 版本的新功能,并完成了在极空间 NAS 平台上的升级部署。本次升级的核心是原生集成双向模型上下文协议(MCP),这是一次深刻的架构升级,为开发者和企业带来了诸多价值。
在新功能方面,Dify v1.6.0 的双向 MCP 支持表现出色。一方面,我们可以将 MCP 服务作为工具进行配置,通过简单的设置和授权,即可在 Agent 中调用外部的 MCP 服务,如我们使用的中药 MCP - Server,实现了通过 Dify 调用外部工具完成特定任务,像请求绘制 "麻黄" 中药图片。另一方面,任何 Dify 代理或工作流都能作为标准 MCP 端点进行暴露,我们将之前的翻译 chatflow 工作流发布为 MCP 服务,并在第三方工具如 Cherry Studio 和 trae 中成功调用,展示了 Dify 应用在更广泛 AI 生态系统中的可重用性和互操作性。
总的来说,Dify v1.6.0 版本通过 MCP 集成和其他功能增强,简化了与外部工具的集成,提高了工作流的可重用性和系统的稳定性,为 AI 应用开发和部署提供了更强大、更便捷的解决方案。
感兴趣的小伙伴可以按照本文步骤去尝试在自己的平台上部署 Dify v1.6.0 版本,并体验其新功能。今天的分享就到这里结束了,我们下一篇文章见。