dify的安装说明

Dify 简介

Dify 是一个开源的 LLM(大语言模型)应用开发平台,由 LangGenius 团队开发,GitHub Star 数超过 90k。

它的核心功能包括:

·聊天助手:快速创建 AI 对话机器人

·知识库(RAG):上传文档,让 AI 基于你的数据回答问题

·工作流编排:拖拽式搭建复杂 AI 流程

·Agent 智能体:让 AI 自主调用工具完成任务

支持接入 GPT-4、通义千问、文心一言、Ollama 本地模型等多种大模型。

部署简单,通过 Docker Compose 一键启动,提供可视化界面,无需编写代码即可构建 AI 应用,并支持 API 调用和网页嵌入发布。

适合企业快速搭建智能客服、知识库问答、自动化流程等 AI 应用场景。

我使用的是rocky linux9.3系统安装的因为我的服务器是vGpu服务器,因为我想用本地的ollama模块,当然安装使用上是大差不差的

两种方式一个是docker安装,另一个是编译安装,编译安装虽然可以自己二次调整可能会灵活点,但编译安装时可能会有依赖安装配置对系统整体有所影响,可能会导致自身服务的显卡驱动异常,保险起见还是使用docker安装,实际有多余的服务你也可以试试编译;

两种方案对比

|------------|-------------------|----------------|
| 特性 | Docker 方案 | 源码方案 |
| 安装速度 | ⭐⭐⭐⭐ 快(自动拉镜像) | ⭐⭐ 慢(需编译依赖) |
| 存储占用 | ⭐⭐ 较高(镜像体积大) | ⭐⭐⭐⭐ 低(仅代码和依赖) |
| 定制灵活性 | ⭐⭐ 低(需进入容器修改) | ⭐⭐⭐⭐ 高(直接改代码) |
| 维护复杂度 | ⭐⭐⭐ 简单(容器化管理) | ⭐⭐ 复杂(需手动运维服务) |

Rocky linux安装docker就不介绍了

1、安装 Docker Compose V2

curl -L "https://github.com/docker/compose/releases/download/v2.23.3/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose

chmod +x /usr/local/bin/docker-compose

2、拉取 Dify 源码并启动

git clone https://github.com/langgenius/dify.git

cd dify/docker

cp .env.example .env # 复制环境变量模板

编辑 .env 文件,按需修改 API 密钥、数据库密码等

注:这里的API秘钥是连接 OpenAI 服务,数据库是docker镜像的

docker compose up -d # 启动容器(自动下载镜像)

这里拉镜像会很慢,需要配置好用的docker镜像源:

  1. 创建配置文件

tee /etc/docker/daemon.json <<-'EOF'

{

"registry-mirrors": [

"https://docker.m.daocloud.io",

"https://dockerproxy.com",

"https://registry.docker-cn.com",

"https://docker.mirrors.ustc.edu.cn",

"https://hub-mirror.c.163.com",

"https://hub.uuuadc.top",

"https://docker.anyhub.us.kg",

"https://dockerhub.jobcher.com",

"https://dockerhub.icu",

"https://docker.ckyl.me",

"https://docker.awsl9527.cn",

"https://mirror.baidubce.com"

],

"dns": ["8.8.8.8", "114.114.114.114"] #可以不写

}

EOF

2. 重启Docker服务

sudo systemctl daemon-reload

sudo systemctl restart docker

3. 验证配置

docker info | grep -A 1 Mirrors

需要配置下本地ollama接口连接,在.env里添加如下配置:

======================

Ollama 自定义模型配置

======================

PROVIDER=custom

CUSTOM_MODELS_ENABLED=true

CUSTOM_MODELS_PROVIDER=openai

CUSTOM_MODELS_OPENAI_ENDPOINT=http://10.1.*.*:11434/v1 # 关键!

注:不能写localhots或者127.0.0.1

CUSTOM_MODELS_OPENAI_API_KEY=sk-ollama # 任意非空值

CUSTOM_MODELS_OPENAI_MODELS_LIST=qwen2.5:7b

重启 Dify 项目:

cd dify/docker

docker compose down

docker compose up -d

  1. 登录dify需要到设置--模型供应商--OpenAI-API-compatible(安装)

然后配置ollama的模型

相关推荐
踩着两条虫2 小时前
AI 驱动的 Vue3 应用开发平台 深入探究(十二):物料系统之物料模式配置
前端·vue.js·ai编程
踩着两条虫2 小时前
AI 驱动的 Vue3 应用开发平台 深入探究(十三):物料系统之区块与页面模板
前端·vue.js·ai编程
YimWu2 小时前
OpenCode 核心模块梳理总结
前端·agent·ai编程
小碗细面3 小时前
5 分钟上手 Google Stitch:AI 时代的 UI 设计新范式
前端·aigc·ai编程
小程故事多_803 小时前
CLI Agent设计详解,架构、原理与流程实现(含业务Agent交互)
人工智能·架构·aigc·交互·ai编程
怕浪猫4 小时前
第1章 初识 LangChain:大模型时代的开发脚手架
langchain·llm·ai编程
狐574 小时前
2026-03-14-Claude Code配置火山方舟Coding Plan(豆包)指南
ai编程
是烨笙啊4 小时前
AI编程:重构的那些事儿
重构·ai编程
helson赵子健7 小时前
从深圳到伦敦,与自己和解,与热爱重逢
ai编程·求职