dify本地部署及添加ollama模型(ubuntu24.04)

源码下载

下载地址:https://github.com/langgenius/dify

切换到自己要存放该源码的目录下,拉取代码

shell 复制代码
# 没有git就安装一下
# 1.首先更新软件包列表
sudo apt update
# 2.安装git
sudo apt install git
# 3.查看git版本
git --version

# 拉取
git clone https://github.com/langgenius/dify.git

修改.env环境配置信息

dify/docker目录下,直接copy就行

shell 复制代码
cp .env.example .env

拉取镜像并运行容器

dify/docker目录下

shell 复制代码
docker-compose up -d
# 启动后查看下
docker ps

访问(默认80端口)

  • 注册并登录
    本机的话直接localhost即可
    首次访问会让注册账号,我这里已经注册过了,所以显示登录界面。

添加ollama模型供应商

.env配置Ollama的API地址

在dify/docker下.env文件最后添加以下配置

.env 复制代码
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定Ollama的API地址(根据实际部署环境调整IP)
OLLAMA_API_BASE_URL=http://192.168.XX.XX:11434

关闭并重启docker

shell 复制代码
docker-compose down
docker-compose up -d

测试docker是否能访问ollama

我本地ollama的模型

docker测试是否能调用ollama:

shell 复制代码
# 192.168.18.25:11434切换成自己ollama的ip地址
 docker exec -it docker-api-1 curl 192.168.XX.XX:11434/api/tags

配置ollama

右上角-设置-模型供应商-安装模型供应商:找到ollama并安装,安装完之后可以在上方待配置处看到

(我下载的这个dify版本,需要点击两次安装才能安装成功)

配置相应的ollama模型,并保存。


相关推荐
LiRuiJie1 小时前
基于LangChain + Milvus 实现RAG
python·langchain·milvus·rag
wfsm5 小时前
RAG检索增强生成
rag
JolyouLu1 天前
LangChain4J-基础(整合Spring、RAG、MCP、向量数据库、提示词、流式输出)
大模型·提示词·向量数据库·rag·mcp·langchain4j
程序员 _孜然2 天前
Ubuntu/Debian修改网卡名字enP3p49s0为eth0
linux·运维·驱动开发·嵌入式硬件·ubuntu·debian
可期不折腾2 天前
NVIDIA Nsight Systems性能分析工具
ubuntu·nvidia·nsight systems·性能分析工具
浩瀚蓝天dep2 天前
使用Ollama部署自己的本地模型
ai大模型·ollama·deepseek
Fireworkitte2 天前
Ubuntu 系统 tar 包源码安装 Nginx
linux·nginx·ubuntu
ElendaLee2 天前
笔记本电脑Windows+Ubuntu 双系统,Ubuntu无法挂载Windows的硬盘 报错问题解决
linux·运维·ubuntu
QtSeeker2 天前
Ubuntu22.04安装VMware Tools
linux·ubuntu
wzb562 天前
Ubuntu 的 apt-get 强制使用 IPv4 网络
ubuntu