dify的安装说明

Dify 简介

Dify 是一个开源的 LLM(大语言模型)应用开发平台,由 LangGenius 团队开发,GitHub Star 数超过 90k。

它的核心功能包括:

·聊天助手:快速创建 AI 对话机器人

·知识库(RAG):上传文档,让 AI 基于你的数据回答问题

·工作流编排:拖拽式搭建复杂 AI 流程

·Agent 智能体:让 AI 自主调用工具完成任务

支持接入 GPT-4、通义千问、文心一言、Ollama 本地模型等多种大模型。

部署简单,通过 Docker Compose 一键启动,提供可视化界面,无需编写代码即可构建 AI 应用,并支持 API 调用和网页嵌入发布。

适合企业快速搭建智能客服、知识库问答、自动化流程等 AI 应用场景。

我使用的是rocky linux9.3系统安装的因为我的服务器是vGpu服务器,因为我想用本地的ollama模块,当然安装使用上是大差不差的

两种方式一个是docker安装,另一个是编译安装,编译安装虽然可以自己二次调整可能会灵活点,但编译安装时可能会有依赖安装配置对系统整体有所影响,可能会导致自身服务的显卡驱动异常,保险起见还是使用docker安装,实际有多余的服务你也可以试试编译;

两种方案对比

|------------|-------------------|----------------|
| 特性 | Docker 方案 | 源码方案 |
| 安装速度 | ⭐⭐⭐⭐ 快(自动拉镜像) | ⭐⭐ 慢(需编译依赖) |
| 存储占用 | ⭐⭐ 较高(镜像体积大) | ⭐⭐⭐⭐ 低(仅代码和依赖) |
| 定制灵活性 | ⭐⭐ 低(需进入容器修改) | ⭐⭐⭐⭐ 高(直接改代码) |
| 维护复杂度 | ⭐⭐⭐ 简单(容器化管理) | ⭐⭐ 复杂(需手动运维服务) |

Rocky linux安装docker就不介绍了

1、安装 Docker Compose V2

curl -L "https://github.com/docker/compose/releases/download/v2.23.3/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose

chmod +x /usr/local/bin/docker-compose

2、拉取 Dify 源码并启动

git clone https://github.com/langgenius/dify.git

cd dify/docker

cp .env.example .env # 复制环境变量模板

编辑 .env 文件,按需修改 API 密钥、数据库密码等

注:这里的API秘钥是连接 OpenAI 服务,数据库是docker镜像的

docker compose up -d # 启动容器(自动下载镜像)

这里拉镜像会很慢,需要配置好用的docker镜像源:

  1. 创建配置文件

tee /etc/docker/daemon.json <<-'EOF'

{

"registry-mirrors": [

"https://docker.m.daocloud.io",

"https://dockerproxy.com",

"https://registry.docker-cn.com",

"https://docker.mirrors.ustc.edu.cn",

"https://hub-mirror.c.163.com",

"https://hub.uuuadc.top",

"https://docker.anyhub.us.kg",

"https://dockerhub.jobcher.com",

"https://dockerhub.icu",

"https://docker.ckyl.me",

"https://docker.awsl9527.cn",

"https://mirror.baidubce.com"

],

"dns": ["8.8.8.8", "114.114.114.114"] #可以不写

}

EOF

2. 重启Docker服务

sudo systemctl daemon-reload

sudo systemctl restart docker

3. 验证配置

docker info | grep -A 1 Mirrors

需要配置下本地ollama接口连接,在.env里添加如下配置:

======================

Ollama 自定义模型配置

======================

PROVIDER=custom

CUSTOM_MODELS_ENABLED=true

CUSTOM_MODELS_PROVIDER=openai

CUSTOM_MODELS_OPENAI_ENDPOINT=http://10.1.*.*:11434/v1 # 关键!

注:不能写localhots或者127.0.0.1

CUSTOM_MODELS_OPENAI_API_KEY=sk-ollama # 任意非空值

CUSTOM_MODELS_OPENAI_MODELS_LIST=qwen2.5:7b

重启 Dify 项目:

cd dify/docker

docker compose down

docker compose up -d

  1. 登录dify需要到设置--模型供应商--OpenAI-API-compatible(安装)

然后配置ollama的模型

相关推荐
光影少年14 小时前
AI Agent智能体开发
人工智能·aigc·ai编程
AI成长日志18 小时前
【实用工具教程】AI编程助手趋势全景:从Cursor到GitHub Copilot的实战评测
github·copilot·ai编程
Are_You_Okkk_1 天前
AI编程赋能研发效率:核心能力与实践经验总结
人工智能·开源·ai编程
小程故事多_801 天前
无 GitAI 依赖|企业 AI 编码合规管控 + 全生命周期追溯,实现效率与安全双向破局
人工智能·安全·架构·aigc·ai编程·harness
AiSchoober1 天前
schoober-ai-sdk:核心ReAct 引擎的实现
人工智能·ai·node.js·agent·ai编程
网络安全学习库1 天前
很喜欢Vue,但还是选择了React: AI时代的新考量
vue.js·人工智能·react.js·小程序·aigc·产品经理·ai编程
测试_AI_一辰1 天前
Playwright执行原理拆解(测试视角)
人工智能·功能测试·ai编程
aovenus1 天前
Block Goose 介绍
ai编程
财经资讯数据_灵砚智能1 天前
基于全球经济类多源新闻的NLP情感分析与数据可视化(日间)2026年4月4日
大数据·人工智能·python·信息可视化·自然语言处理·ai编程
jarvisuni1 天前
GLM-5V-Turbo 首测翻车了?!
人工智能·ai编程