Dify 简介
Dify 是一个开源的 LLM(大语言模型)应用开发平台,由 LangGenius 团队开发,GitHub Star 数超过 90k。
它的核心功能包括:
·聊天助手:快速创建 AI 对话机器人
·知识库(RAG):上传文档,让 AI 基于你的数据回答问题
·工作流编排:拖拽式搭建复杂 AI 流程
·Agent 智能体:让 AI 自主调用工具完成任务
支持接入 GPT-4、通义千问、文心一言、Ollama 本地模型等多种大模型。
部署简单,通过 Docker Compose 一键启动,提供可视化界面,无需编写代码即可构建 AI 应用,并支持 API 调用和网页嵌入发布。
适合企业快速搭建智能客服、知识库问答、自动化流程等 AI 应用场景。
我使用的是rocky linux9.3系统安装的因为我的服务器是vGpu服务器,因为我想用本地的ollama模块,当然安装使用上是大差不差的
两种方式一个是docker安装,另一个是编译安装,编译安装虽然可以自己二次调整可能会灵活点,但编译安装时可能会有依赖安装配置对系统整体有所影响,可能会导致自身服务的显卡驱动异常,保险起见还是使用docker安装,实际有多余的服务你也可以试试编译;
两种方案对比
|------------|-------------------|----------------|
| 特性 | Docker 方案 | 源码方案 |
| 安装速度 | ⭐⭐⭐⭐ 快(自动拉镜像) | ⭐⭐ 慢(需编译依赖) |
| 存储占用 | ⭐⭐ 较高(镜像体积大) | ⭐⭐⭐⭐ 低(仅代码和依赖) |
| 定制灵活性 | ⭐⭐ 低(需进入容器修改) | ⭐⭐⭐⭐ 高(直接改代码) |
| 维护复杂度 | ⭐⭐⭐ 简单(容器化管理) | ⭐⭐ 复杂(需手动运维服务) |
Rocky linux安装docker就不介绍了
1、安装 Docker Compose V2
curl -L "https://github.com/docker/compose/releases/download/v2.23.3/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
chmod +x /usr/local/bin/docker-compose
2、拉取 Dify 源码并启动
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env # 复制环境变量模板
编辑 .env 文件,按需修改 API 密钥、数据库密码等
注:这里的API秘钥是连接 OpenAI 服务,数据库是docker镜像的
docker compose up -d # 启动容器(自动下载镜像)
这里拉镜像会很慢,需要配置好用的docker镜像源:
- 创建配置文件
tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": [
"https://docker.m.daocloud.io",
"https://registry.docker-cn.com",
"https://docker.mirrors.ustc.edu.cn",
"https://hub-mirror.c.163.com",
"https://docker.anyhub.us.kg",
"https://dockerhub.jobcher.com",
],
"dns": ["8.8.8.8", "114.114.114.114"] #可以不写
}
EOF
2. 重启Docker服务
sudo systemctl daemon-reload
sudo systemctl restart docker
3. 验证配置
docker info | grep -A 1 Mirrors
需要配置下本地ollama接口连接,在.env里添加如下配置:
======================
Ollama 自定义模型配置
======================
PROVIDER=custom
CUSTOM_MODELS_ENABLED=true
CUSTOM_MODELS_PROVIDER=openai
CUSTOM_MODELS_OPENAI_ENDPOINT=http://10.1.*.*:11434/v1 # 关键!
注:不能写localhots或者127.0.0.1
CUSTOM_MODELS_OPENAI_API_KEY=sk-ollama # 任意非空值
CUSTOM_MODELS_OPENAI_MODELS_LIST=qwen2.5:7b
重启 Dify 项目:
cd dify/docker
docker compose down
docker compose up -d
- 登录dify需要到设置--模型供应商--OpenAI-API-compatible(安装)
然后配置ollama的模型
