Dify 中文使用教程

Dify 中文使用教程

Dify 简介

Dify 是一个开源的大语言模型(LLM)应用开发平台,其核心理念是让 AI 应用开发变得简单而强大。无论您是资深开发者还是 AI 新手,都能通过直观的界面快速构建出功能完善的 AI 应用。

主要特点

  • 可视化工作流 - 拖拽式构建 AI 处理流程,无需复杂编程
  • 模型无关性 - 支持 OpenAI、Anthropic、通义千问、本地模型(如 Ollama)等多种模型
  • 内置 RAG 能力 - 轻松构建基于企业知识库的问答系统
  • 丰富的工具集 - 从提示词 IDE 到性能监控,全方位支持 AI 应用开发
  • 企业级功能 - 数据标注、日志监控、权限控制、私有化部署等

为什么选择 Dify

传统 AI 应用开发面临以下痛点:

  • 需要深度理解各种 AI 模型 API
  • 复杂的提示词工程和调优
  • 难以整合多种 AI 能力
  • 缺乏可视化的开发工具

Dify 通过提供全面的解决方案,大幅降低了 AI 应用开发的技术门槛。

部署方式

1. 云服务部署(3分钟极速开箱)

适合人群:快速验证原型、中小企业轻量化使用

核心优势:零运维、免费用量额度、自动升级

操作步骤

  1. 注册登录

    • 访问 Dify 官网,点击「免费开始」
    • 用邮箱/GitHub 账号注册
    • 国内用户推荐选择亚太节点(新加坡/东京),延迟更低
  2. 配置模型

    • 新用户赠送 $1 的 GPT-3.5 调用额度
    • 进入「模型供应商」→ 选择 OpenAI/Claude/通义千问
    • 填入 API Key(云服务自动代理请求,无需暴露 Key 给客户端)
  3. API 测试

    bash 复制代码
    curl -X POST "https://api.dify.ai/v1/chat-messages" \
    -H "Authorization: Bearer YOUR_API_KEY" \
    -d '{"inputs": {}, "query": "你好"}'

云服务优缺点

  • 优点:无需服务器,零运维;自动享受新功能;内置 CDN 加速全球访问
  • 缺点:敏感数据需信任云端;高阶功能需订阅企业版;模型响应速度依赖 API 供应商

2. 本地 Docker 部署(5分钟构建私有环境)

适合人群:金融/医疗等强合规场景、需要连接内网系统

核心优势:数据 100% 私有化、自定义 GPU 加速

环境准备

  • 最低配置:Linux/MacOS/Windows WSL2、4核 CPU、8GB 内存、20GB 磁盘
  • 安装 Docker 及 Docker Compose

操作步骤

  1. 克隆项目

    bash 复制代码
    git clone https://github.com/langgenius/dify.git
    cd dify/docker
  2. 配置环境

    bash 复制代码
    cp .env.example .env
  3. 启动服务

    bash 复制代码
    docker-compose up -d
  4. 访问平台

    • 等待服务启动完成
    • 打开浏览器,访问 http://localhost
    • 首次访问会自动跳转到安装页面
  5. 设置管理员账号

    • 填写邮箱、账户名和密码
    • 点击「设置」完成管理员账户创建

模型配置

添加模型供应商

  1. 登录 Dify 平台
  2. 点击右上角账户头像,进入「设置」
  3. 选择「模型供应商」选项
  4. 根据需要添加各种模型供应商的 API 密钥

配置本地 Ollama 模型

如果您希望使用本地部署的模型,可以通过 Ollama 集成:

  1. 安装 Ollama

    bash 复制代码
    curl -fsSL https://ollama.com/install.sh | sh
  2. 配置 Ollama 服务

    • 修改 Ollama 的本地监听 IP 地址

    • Environment="OLLAMA_HOST=0.0.0.0" 添加到 /etc/systemd/system/ollama.service

    • 重启 Ollama 服务

      bash 复制代码
      sudo systemctl daemon-reload
      sudo systemctl restart ollama
  3. 下载模型

    bash 复制代码
    ollama run llama3.2
  4. 在 Dify 中添加 Ollama 模型

    • 进入「设置」→「模型供应商」→ 找到 Ollama
    • 点击「添加模型」
    • 填写模型名称(如 llama3.2)
    • 基础 URL 输入 http://主机IP:11434
    • 点击保存

创建第一个 AI 应用

创建智能客服助手

  1. 创建应用

    • 点击「创建应用」
    • 选择「Chatflow」应用类型
    • 输入应用名称(如:智能客服)
  2. 设计提示词

    • 点击 LLM 节点进行大模型设置

    • 选择已启用的模型

    • 编写系统提示词,例如:

      diff 复制代码
      你是一个专业的客服助手,具备以下特点:
      - 友好、耐心、专业
      - 能够理解用户问题并提供准确回答
      - 如果不确定答案,会诚实说明并建议用户联系人工客服
      请始终保持礼貌和乐于助人的态度。
  3. 测试对话

    • 在右侧预览区域输入:"你好,我想了解你们的服务"
    • 观察 AI 助手的回复效果

构建知识库问答系统

  1. 创建知识库

    • 在应用中添加知识库组件
    • 上传企业文档(PDF、Word、Markdown 等)
    • 等待文档解析和向量化完成
  2. 配置 RAG 流程

    • 设置检索参数(如相似度阈值、检索数量)
    • 配置提示词模板,指导模型基于检索内容生成回答
  3. 测试问答效果

    • 输入与知识库相关的问题
    • 验证回答是否准确引用了文档内容

应用发布与集成

发布应用

  1. 进入已创建的应用
  2. 点击「发布」按钮
  3. 选择发布环境(开发/生产)

接入方式

1. Web 界面
  • 获取应用的公开链接
  • 可嵌入到企业网站或内部系统
2. API 调用
  • 获取应用的 API Key

  • 使用 HTTP 请求调用,例如:

    bash 复制代码
    curl -X POST "https://api.dify.ai/v1/chat-messages" \
    -H "Authorization: Bearer YOUR_API_KEY" \
    -d '{"inputs": {}, "query": "你好"}'
3. SDK 集成
  • 使用官方提供的 SDK(支持 Python、JavaScript 等)
  • 在自己的应用中直接调用

高级功能

工作流编排

  • 使用拖拽式界面设计复杂的 AI 工作流
  • 组合多个节点(LLM、知识库、工具调用等)
  • 设置条件分支和循环逻辑

数据监控与分析

  • 查看应用使用统计
  • 分析对话质量和用户满意度
  • 监控模型调用成本

安全与权限控制

  • 设置用户角色和权限
  • 配置 SSO 登录
  • 数据加密和访问控制

常见问题

部署问题

  1. 服务启动失败:检查 Docker 是否正常运行,端口是否被占用
  2. 访问缓慢:本地部署时考虑增加服务器资源,云服务选择就近节点
  3. 数据迁移:如需迁移 Dify 平台,建议使用 tar 命令打包整个目录

模型调用问题

  1. API 密钥错误:检查密钥是否正确,是否有足够的调用额度
  2. 本地模型连接失败:确认 Ollama 服务是否运行,防火墙设置是否允许访问
  3. 响应质量不佳:优化提示词,调整模型参数,考虑使用更适合的模型

知识库问题

  1. 文档解析失败:检查文档格式是否支持,内容是否过大
  2. 检索不准确:调整检索参数,优化文档质量,考虑分段和预处理

性能优化建议

  1. 资源配置

    • 生产环境建议至少 8 核 CPU、16GB 内存
    • 如有条件,配置 GPU 加速模型推理
  2. 模型选择

    • 简单任务使用轻量级模型降低成本
    • 复杂任务使用更强大的模型保证质量
  3. 缓存策略

    • 对常见问题启用缓存,减少重复计算
    • 设置合理的缓存过期时间

通过本教程,您应该能够成功部署 Dify 平台并创建自己的 AI 应用。Dify 的可视化开发方式极大地降低了 AI 应用开发的门槛,使更多人能够利用大语言模型的能力构建实用工具。无论是企业内部知识管理、客户服务自动化,还是个性化 AI 助手,Dify 都能提供灵活而强大的支持。

相关推荐
却道天凉_好个秋13 小时前
OpenCV(二十一):HSV与HSL
人工智能·opencv·计算机视觉
从后端到QT13 小时前
标量-向量-矩阵-基础知识
人工智能·机器学习·矩阵
新智元13 小时前
65 岁图灵巨头离职创业!LeCun 愤然与小扎决裂,Meta 巨震
人工智能·openai
机器之心13 小时前
全球第二、国内第一!钉钉发布DeepResearch多智能体框架,已在真实企业部署
人工智能·openai
新智元13 小时前
翻译界的 ChatGPT 时刻!Meta 发布新模型,几段示例学会冷门新语言
人工智能·openai
沉默媛13 小时前
什么是Hinge损失函数
人工智能·损失函数
北青网快讯14 小时前
声网AI技术赋能,智能客服告别机械式应答
人工智能
机器之心14 小时前
TypeScript超越Python成GitHub上使用最广语言,AI是主要驱动力
人工智能·openai
nju_spy14 小时前
周志华《机器学习导论》第 15 章 规则学习(符号主义学习)
人工智能·机器学习·数理逻辑·序贯覆盖·规则学习·ripper·一阶规则学习
许泽宇的技术分享14 小时前
当 AI 工作流需要“人类智慧“:深度解析 Microsoft Agent Framework 的人工接入机制
人工智能·microsoft