dify本地部署及添加ollama模型(ubuntu24.04)

源码下载

下载地址:https://github.com/langgenius/dify

切换到自己要存放该源码的目录下,拉取代码

shell 复制代码
# 没有git就安装一下
# 1.首先更新软件包列表
sudo apt update
# 2.安装git
sudo apt install git
# 3.查看git版本
git --version

# 拉取
git clone https://github.com/langgenius/dify.git

修改.env环境配置信息

dify/docker目录下,直接copy就行

shell 复制代码
cp .env.example .env

拉取镜像并运行容器

dify/docker目录下

shell 复制代码
docker-compose up -d
# 启动后查看下
docker ps

访问(默认80端口)

  • 注册并登录
    本机的话直接localhost即可
    首次访问会让注册账号,我这里已经注册过了,所以显示登录界面。

添加ollama模型供应商

.env配置Ollama的API地址

在dify/docker下.env文件最后添加以下配置

.env 复制代码
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定Ollama的API地址(根据实际部署环境调整IP)
OLLAMA_API_BASE_URL=http://192.168.XX.XX:11434

关闭并重启docker

shell 复制代码
docker-compose down
docker-compose up -d

测试docker是否能访问ollama

我本地ollama的模型

docker测试是否能调用ollama:

shell 复制代码
# 192.168.18.25:11434切换成自己ollama的ip地址
 docker exec -it docker-api-1 curl 192.168.XX.XX:11434/api/tags

配置ollama

右上角-设置-模型供应商-安装模型供应商:找到ollama并安装,安装完之后可以在上方待配置处看到

(我下载的这个dify版本,需要点击两次安装才能安装成功)

配置相应的ollama模型,并保存。


相关推荐
uncle_ll8 小时前
RAG 系统性能跃迁:LlamaIndex 索引优化实战指南
llm·rag·检索·llamaindex
神筆&『馬良』12 小时前
Foundation_pose在自己的物体上复现指南:实现任意物体6D位姿检测(利用realsense_D435i和iphone_16pro手机)
目标检测·ubuntu·机器人·视觉检测
uncle_ll12 小时前
Milvus介绍及多模态检索实践:从部署到实战全解析
milvus·多模态·向量数据库·ann·rag·搜索·检索
liuniu081813 小时前
VMware虚拟机安装ubuntu2022
ubuntu·ros
xfddlm14 小时前
边缘计算_ubuntu环境下使用瑞芯微RK3576NPU推理LLM
人工智能·ubuntu·边缘计算
EHagSJVNpTY15 小时前
MATLAB 中基于最大重叠离散小波变换的心电信号处理探索
ubuntu
.小墨迹15 小时前
apollo学习之借道超车的速度规划
linux·c++·学习·算法·ubuntu
技术路上的探险家16 小时前
Ubuntu下Docker与NVIDIA Container Toolkit完整安装教程(含国内源适配)
linux·ubuntu·docker
无证驾驶梁嗖嗖17 小时前
用Plex打造随身私人影院告别影音杂乱,必须加上cpolar突破地域限制!
ubuntu
Sheep Shaun18 小时前
揭开Linux的隐藏约定:你的第一个文件描述符为什么是3?
linux·服务器·ubuntu·文件系统·缓冲区