dify本地部署及添加ollama模型(ubuntu24.04)

源码下载

下载地址:https://github.com/langgenius/dify

切换到自己要存放该源码的目录下,拉取代码

shell 复制代码
# 没有git就安装一下
# 1.首先更新软件包列表
sudo apt update
# 2.安装git
sudo apt install git
# 3.查看git版本
git --version

# 拉取
git clone https://github.com/langgenius/dify.git

修改.env环境配置信息

dify/docker目录下,直接copy就行

shell 复制代码
cp .env.example .env

拉取镜像并运行容器

dify/docker目录下

shell 复制代码
docker-compose up -d
# 启动后查看下
docker ps

访问(默认80端口)

  • 注册并登录
    本机的话直接localhost即可
    首次访问会让注册账号,我这里已经注册过了,所以显示登录界面。

添加ollama模型供应商

.env配置Ollama的API地址

在dify/docker下.env文件最后添加以下配置

.env 复制代码
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定Ollama的API地址(根据实际部署环境调整IP)
OLLAMA_API_BASE_URL=http://192.168.XX.XX:11434

关闭并重启docker

shell 复制代码
docker-compose down
docker-compose up -d

测试docker是否能访问ollama

我本地ollama的模型

docker测试是否能调用ollama:

shell 复制代码
# 192.168.18.25:11434切换成自己ollama的ip地址
 docker exec -it docker-api-1 curl 192.168.XX.XX:11434/api/tags

配置ollama

右上角-设置-模型供应商-安装模型供应商:找到ollama并安装,安装完之后可以在上方待配置处看到

(我下载的这个dify版本,需要点击两次安装才能安装成功)

配置相应的ollama模型,并保存。


相关推荐
安如衫34 分钟前
从 OCR 到多模态 VLM Agentic AI:智能文档问答的范式转移全解
人工智能·ocr·agent·cv·rag·vlm
老兵发新帖2 小时前
Ubuntu安装fail2ban:防暴力破解
linux·运维·ubuntu
领航猿1号3 小时前
Langchain 1.0.2 从入门到精通(含基础、RAG、Milvus、Ollama、MCP、Agents)
langchain·agent·milvus·rag·mcp·langchain 1.0
松涛和鸣4 小时前
66、SPI驱动ADXL345加速度计
linux·运维·单片机·嵌入式硬件·ubuntu
孙琦Ray4 小时前
GitHub开源项目月报 · 2026年1月 · 开源AI代理热榜解读
开源·软件开发·多模态·rag·知识管理·ai代理·终端桌面
花间相见4 小时前
【Linux】—— FTP服务搭建与使用(Ubuntu实操版,适配办公内网)
linux·运维·ubuntu
嵌入式郑工5 小时前
# RK3576 平台 RTC 时钟调试全过程
linux·驱动开发·ubuntu
lysine_5 小时前
实现ubuntu两个网口桥接
linux·服务器·网络·arm开发·ubuntu
suxuyu015 小时前
ubuntu通过windows主机访问网络
网络·windows·ubuntu
Riu_Peter6 小时前
【记录】Ubuntu 安装 Docker
ubuntu·docker·eureka