Dify 中文使用教程
Dify 简介
Dify 是一个开源的大语言模型(LLM)应用开发平台,其核心理念是让 AI 应用开发变得简单而强大。无论您是资深开发者还是 AI 新手,都能通过直观的界面快速构建出功能完善的 AI 应用。
主要特点
- 可视化工作流 - 拖拽式构建 AI 处理流程,无需复杂编程
- 模型无关性 - 支持 OpenAI、Anthropic、通义千问、本地模型(如 Ollama)等多种模型
- 内置 RAG 能力 - 轻松构建基于企业知识库的问答系统
- 丰富的工具集 - 从提示词 IDE 到性能监控,全方位支持 AI 应用开发
- 企业级功能 - 数据标注、日志监控、权限控制、私有化部署等
为什么选择 Dify
传统 AI 应用开发面临以下痛点:
- 需要深度理解各种 AI 模型 API
- 复杂的提示词工程和调优
- 难以整合多种 AI 能力
- 缺乏可视化的开发工具
Dify 通过提供全面的解决方案,大幅降低了 AI 应用开发的技术门槛。
部署方式
1. 云服务部署(3分钟极速开箱)
适合人群:快速验证原型、中小企业轻量化使用
核心优势:零运维、免费用量额度、自动升级
操作步骤:
-
注册登录
- 访问 Dify 官网,点击「免费开始」
- 用邮箱/GitHub 账号注册
- 国内用户推荐选择亚太节点(新加坡/东京),延迟更低
-
配置模型
- 新用户赠送 $1 的 GPT-3.5 调用额度
- 进入「模型供应商」→ 选择 OpenAI/Claude/通义千问
- 填入 API Key(云服务自动代理请求,无需暴露 Key 给客户端)
-
API 测试
bashcurl -X POST "https://api.dify.ai/v1/chat-messages" \ -H "Authorization: Bearer YOUR_API_KEY" \ -d '{"inputs": {}, "query": "你好"}'
云服务优缺点:
- 优点:无需服务器,零运维;自动享受新功能;内置 CDN 加速全球访问
- 缺点:敏感数据需信任云端;高阶功能需订阅企业版;模型响应速度依赖 API 供应商
2. 本地 Docker 部署(5分钟构建私有环境)
适合人群:金融/医疗等强合规场景、需要连接内网系统
核心优势:数据 100% 私有化、自定义 GPU 加速
环境准备:
- 最低配置:Linux/MacOS/Windows WSL2、4核 CPU、8GB 内存、20GB 磁盘
- 安装 Docker 及 Docker Compose
操作步骤:
-
克隆项目
bashgit clone https://github.com/langgenius/dify.git cd dify/docker
-
配置环境
bashcp .env.example .env
-
启动服务
bashdocker-compose up -d
-
访问平台
- 等待服务启动完成
- 打开浏览器,访问 http://localhost
- 首次访问会自动跳转到安装页面
-
设置管理员账号
- 填写邮箱、账户名和密码
- 点击「设置」完成管理员账户创建
模型配置
添加模型供应商
- 登录 Dify 平台
- 点击右上角账户头像,进入「设置」
- 选择「模型供应商」选项
- 根据需要添加各种模型供应商的 API 密钥
配置本地 Ollama 模型
如果您希望使用本地部署的模型,可以通过 Ollama 集成:
-
安装 Ollama
bashcurl -fsSL https://ollama.com/install.sh | sh
-
配置 Ollama 服务
-
修改 Ollama 的本地监听 IP 地址
-
将
Environment="OLLAMA_HOST=0.0.0.0"
添加到/etc/systemd/system/ollama.service
-
重启 Ollama 服务
bashsudo systemctl daemon-reload sudo systemctl restart ollama
-
-
下载模型
bashollama run llama3.2
-
在 Dify 中添加 Ollama 模型
- 进入「设置」→「模型供应商」→ 找到 Ollama
- 点击「添加模型」
- 填写模型名称(如 llama3.2)
- 基础 URL 输入 http://主机IP:11434
- 点击保存
创建第一个 AI 应用
创建智能客服助手
-
创建应用
- 点击「创建应用」
- 选择「Chatflow」应用类型
- 输入应用名称(如:智能客服)
-
设计提示词
-
点击 LLM 节点进行大模型设置
-
选择已启用的模型
-
编写系统提示词,例如:
diff你是一个专业的客服助手,具备以下特点: - 友好、耐心、专业 - 能够理解用户问题并提供准确回答 - 如果不确定答案,会诚实说明并建议用户联系人工客服 请始终保持礼貌和乐于助人的态度。
-
-
测试对话
- 在右侧预览区域输入:"你好,我想了解你们的服务"
- 观察 AI 助手的回复效果
构建知识库问答系统
-
创建知识库
- 在应用中添加知识库组件
- 上传企业文档(PDF、Word、Markdown 等)
- 等待文档解析和向量化完成
-
配置 RAG 流程
- 设置检索参数(如相似度阈值、检索数量)
- 配置提示词模板,指导模型基于检索内容生成回答
-
测试问答效果
- 输入与知识库相关的问题
- 验证回答是否准确引用了文档内容
应用发布与集成
发布应用
- 进入已创建的应用
- 点击「发布」按钮
- 选择发布环境(开发/生产)
接入方式
1. Web 界面
- 获取应用的公开链接
- 可嵌入到企业网站或内部系统
2. API 调用
-
获取应用的 API Key
-
使用 HTTP 请求调用,例如:
bashcurl -X POST "https://api.dify.ai/v1/chat-messages" \ -H "Authorization: Bearer YOUR_API_KEY" \ -d '{"inputs": {}, "query": "你好"}'
3. SDK 集成
- 使用官方提供的 SDK(支持 Python、JavaScript 等)
- 在自己的应用中直接调用
高级功能
工作流编排
- 使用拖拽式界面设计复杂的 AI 工作流
- 组合多个节点(LLM、知识库、工具调用等)
- 设置条件分支和循环逻辑
数据监控与分析
- 查看应用使用统计
- 分析对话质量和用户满意度
- 监控模型调用成本
安全与权限控制
- 设置用户角色和权限
- 配置 SSO 登录
- 数据加密和访问控制
常见问题
部署问题
- 服务启动失败:检查 Docker 是否正常运行,端口是否被占用
- 访问缓慢:本地部署时考虑增加服务器资源,云服务选择就近节点
- 数据迁移:如需迁移 Dify 平台,建议使用 tar 命令打包整个目录
模型调用问题
- API 密钥错误:检查密钥是否正确,是否有足够的调用额度
- 本地模型连接失败:确认 Ollama 服务是否运行,防火墙设置是否允许访问
- 响应质量不佳:优化提示词,调整模型参数,考虑使用更适合的模型
知识库问题
- 文档解析失败:检查文档格式是否支持,内容是否过大
- 检索不准确:调整检索参数,优化文档质量,考虑分段和预处理
性能优化建议
-
资源配置
- 生产环境建议至少 8 核 CPU、16GB 内存
- 如有条件,配置 GPU 加速模型推理
-
模型选择
- 简单任务使用轻量级模型降低成本
- 复杂任务使用更强大的模型保证质量
-
缓存策略
- 对常见问题启用缓存,减少重复计算
- 设置合理的缓存过期时间
通过本教程,您应该能够成功部署 Dify 平台并创建自己的 AI 应用。Dify 的可视化开发方式极大地降低了 AI 应用开发的门槛,使更多人能够利用大语言模型的能力构建实用工具。无论是企业内部知识管理、客户服务自动化,还是个性化 AI 助手,Dify 都能提供灵活而强大的支持。