dify的安装说明

Dify 简介

Dify 是一个开源的 LLM(大语言模型)应用开发平台,由 LangGenius 团队开发,GitHub Star 数超过 90k。

它的核心功能包括:

·聊天助手:快速创建 AI 对话机器人

·知识库(RAG):上传文档,让 AI 基于你的数据回答问题

·工作流编排:拖拽式搭建复杂 AI 流程

·Agent 智能体:让 AI 自主调用工具完成任务

支持接入 GPT-4、通义千问、文心一言、Ollama 本地模型等多种大模型。

部署简单,通过 Docker Compose 一键启动,提供可视化界面,无需编写代码即可构建 AI 应用,并支持 API 调用和网页嵌入发布。

适合企业快速搭建智能客服、知识库问答、自动化流程等 AI 应用场景。

我使用的是rocky linux9.3系统安装的因为我的服务器是vGpu服务器,因为我想用本地的ollama模块,当然安装使用上是大差不差的

两种方式一个是docker安装,另一个是编译安装,编译安装虽然可以自己二次调整可能会灵活点,但编译安装时可能会有依赖安装配置对系统整体有所影响,可能会导致自身服务的显卡驱动异常,保险起见还是使用docker安装,实际有多余的服务你也可以试试编译;

两种方案对比

|------------|-------------------|----------------|
| 特性 | Docker 方案 | 源码方案 |
| 安装速度 | ⭐⭐⭐⭐ 快(自动拉镜像) | ⭐⭐ 慢(需编译依赖) |
| 存储占用 | ⭐⭐ 较高(镜像体积大) | ⭐⭐⭐⭐ 低(仅代码和依赖) |
| 定制灵活性 | ⭐⭐ 低(需进入容器修改) | ⭐⭐⭐⭐ 高(直接改代码) |
| 维护复杂度 | ⭐⭐⭐ 简单(容器化管理) | ⭐⭐ 复杂(需手动运维服务) |

Rocky linux安装docker就不介绍了

1、安装 Docker Compose V2

curl -L "https://github.com/docker/compose/releases/download/v2.23.3/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose

chmod +x /usr/local/bin/docker-compose

2、拉取 Dify 源码并启动

git clone https://github.com/langgenius/dify.git

cd dify/docker

cp .env.example .env # 复制环境变量模板

编辑 .env 文件,按需修改 API 密钥、数据库密码等

注:这里的API秘钥是连接 OpenAI 服务,数据库是docker镜像的

docker compose up -d # 启动容器(自动下载镜像)

这里拉镜像会很慢,需要配置好用的docker镜像源:

  1. 创建配置文件

tee /etc/docker/daemon.json <<-'EOF'

{

"registry-mirrors": [

"https://docker.m.daocloud.io",

"https://dockerproxy.com",

"https://registry.docker-cn.com",

"https://docker.mirrors.ustc.edu.cn",

"https://hub-mirror.c.163.com",

"https://hub.uuuadc.top",

"https://docker.anyhub.us.kg",

"https://dockerhub.jobcher.com",

"https://dockerhub.icu",

"https://docker.ckyl.me",

"https://docker.awsl9527.cn",

"https://mirror.baidubce.com"

],

"dns": ["8.8.8.8", "114.114.114.114"] #可以不写

}

EOF

2. 重启Docker服务

sudo systemctl daemon-reload

sudo systemctl restart docker

3. 验证配置

docker info | grep -A 1 Mirrors

需要配置下本地ollama接口连接,在.env里添加如下配置:

======================

Ollama 自定义模型配置

======================

PROVIDER=custom

CUSTOM_MODELS_ENABLED=true

CUSTOM_MODELS_PROVIDER=openai

CUSTOM_MODELS_OPENAI_ENDPOINT=http://10.1.*.*:11434/v1 # 关键!

注:不能写localhots或者127.0.0.1

CUSTOM_MODELS_OPENAI_API_KEY=sk-ollama # 任意非空值

CUSTOM_MODELS_OPENAI_MODELS_LIST=qwen2.5:7b

重启 Dify 项目:

cd dify/docker

docker compose down

docker compose up -d

  1. 登录dify需要到设置--模型供应商--OpenAI-API-compatible(安装)

然后配置ollama的模型

相关推荐
甲维斯15 小时前
DeepSeek V4 Flash 好东西啊,多快好省!
ai编程·deepseek
冬奇Lab15 小时前
Claude Code 接入 SonarQube 静态扫描:AI 写代码,质量闭环了
人工智能·ai编程·claude
XinZong17 小时前
【AI社交Skill】禁止人类发言”的AI闭环社交社区_ 到底什么是 clawreach 虾聊?
aigc·openai·ai编程
孟健17 小时前
程序员创业半年:顺的事、不顺的事,和我一直没想清楚的事
ai编程
libokaifa1 天前
Claude Code 的工程化落地:省 Token 篇
llm·agent·ai编程
泡泡茶壶ᐇ1 天前
深度解析AI编程工具中的“沙箱”:动态权限控制与安全边界
安全·ai编程
流年似水~1 天前
2026 年跨平台开发全貌:Flutter、KMP、React Native 怎么选?
人工智能·程序人生·语言模型·ai编程
KaneLogger1 天前
从 Anthropic 面试看 AI 产品经理的四个核心信号
面试·产品经理·ai编程
GISer_Jing1 天前
前端视角:B端传统配置化现状与AI冲击趋势
前端·人工智能·ai编程