dify本地部署及添加ollama模型(ubuntu24.04)

源码下载

下载地址:https://github.com/langgenius/dify

切换到自己要存放该源码的目录下,拉取代码

shell 复制代码
# 没有git就安装一下
# 1.首先更新软件包列表
sudo apt update
# 2.安装git
sudo apt install git
# 3.查看git版本
git --version

# 拉取
git clone https://github.com/langgenius/dify.git

修改.env环境配置信息

dify/docker目录下,直接copy就行

shell 复制代码
cp .env.example .env

拉取镜像并运行容器

dify/docker目录下

shell 复制代码
docker-compose up -d
# 启动后查看下
docker ps

访问(默认80端口)

  • 注册并登录
    本机的话直接localhost即可
    首次访问会让注册账号,我这里已经注册过了,所以显示登录界面。

添加ollama模型供应商

.env配置Ollama的API地址

在dify/docker下.env文件最后添加以下配置

.env 复制代码
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定Ollama的API地址(根据实际部署环境调整IP)
OLLAMA_API_BASE_URL=http://192.168.XX.XX:11434

关闭并重启docker

shell 复制代码
docker-compose down
docker-compose up -d

测试docker是否能访问ollama

我本地ollama的模型

docker测试是否能调用ollama:

shell 复制代码
# 192.168.18.25:11434切换成自己ollama的ip地址
 docker exec -it docker-api-1 curl 192.168.XX.XX:11434/api/tags

配置ollama

右上角-设置-模型供应商-安装模型供应商:找到ollama并安装,安装完之后可以在上方待配置处看到

(我下载的这个dify版本,需要点击两次安装才能安装成功)

配置相应的ollama模型,并保存。


相关推荐
华东设计之美2 小时前
muti-Agent+RAG+KnowledgeGraph构建智能问诊系统的可行性分析
人工智能·软件开发·rag·大模型应用·增强检索生成
Better Bench2 小时前
ThinkStation PGX Ubuntu aarch64架构上使用Docker 配置amd64架构镜像的深度学习环境并使用Vscode开发
ubuntu·docker·架构
weixin_449290013 小时前
Ubuntu 系统上安装和配置 Go 语言运行环境
linux·ubuntu·golang
james bid5 小时前
MacBook Pro 2015 上 XUbuntu 24.04 启用 eGPU (GeForce GTX 1080 Ti) 和核显黑屏问题解决
linux·ubuntu·macos·cuda·egpu
龙吟游戏5 小时前
Ubuntu Server 25.10安装
linux·运维·ubuntu
zzxxlty5 小时前
windows 迁移ubuntu wsl从C盘到D盘
linux·运维·ubuntu
robator5 小时前
ubuntu 22.04 升级nvidia显卡驱动、cuda 和cudnn
linux·服务器·ubuntu
肖恭伟5 小时前
Pycharm历史community版本下载
linux·ubuntu·pycharm·下载·community
沛沛老爹6 小时前
LightRAG 系列 7:核心技术解析——整合检索与生成模块,完整走通 LightRAG 的端到端工作流
工作流·rag·端到端·lightrag·知识注入·查询响应
shandianchengzi6 小时前
【记录】ARM|Ubuntu 24 快速安装 arm-none-eabi-gdb 及 QEMU 调试实战
linux·arm开发·ubuntu·arm·qemu