[Dify] 使用 Docker 本地部署 Dify 并集成 Ollama 模型的详细指南

在 AI 应用快速发展的今天,开源项目如 Dify 正成为构建本地化 AI 应用的利器。通过 Dify,你可以轻松地集成不同的大语言模型(LLM),如 Ollama,并快速创建可交互的 AI 应用。本篇文章将带你一步步通过 Docker 在本地部署 Dify,并完成 Ollama 模型的集成配置。

一、准备工作:安装 Docker

在正式部署前,需要先确保本地环境已安装好 Docker。

  • 可前往 Docker 官网 下载适合你系统的 Docker Desktop;

  • 安装完成后,打开终端(Windows 用户可使用 CMD 或 PowerShell)执行 docker -v,验证是否成功安装。

二、获取并解压 Dify 项目文件

  1. 打开 Dify GitHub 仓库

  2. 点击 Code > Download ZIP 下载项目压缩包;

  3. 解压缩后,进入解压出的 dify 文件夹,再进入 docker 子目录。

三、通过 Docker Compose 启动服务

dify/docker 文件夹中,按以下步骤操作:

复制代码
# 启动终端并切换到当前目录
cd dify/docker

# 启动 Docker Compose
docker compose up -d

服务成功启动后,打开浏览器访问:

复制代码
http://127.0.0.1

首次访问会跳转到安装页面,设置管理员密码,即可进入管理后台。

四、解决配置文件版本问题(如有)

在部分环境中,可能会遇到配置文件中定义的镜像版本不可用的情况。这时需要:

  1. 打开 docker-compose.yml 文件;

  2. 找到 dify-apidify-web 两个服务;

  3. 将它们的镜像版本号修改为当前 GitHub 上最新的稳定版本。

例如:

复制代码
services:
  dify-api:
    image: langgenius/dify-api:latest

  dify-web:
    image: langgenius/dify-web:latest

保存文件后,重新运行 docker compose up -d 即可。

五、配置 Ollama 模型提供商

完成 Dify 部署后,我们来集成本地运行的 Ollama 模型:

1. 打开 Model Provider 页面

进入 Dify 后台,点击左侧导航栏的 Settings > Model Provider

2. 添加 Ollama 模型服务

  1. 点击 Add

  2. 在弹窗中选择 Ollama 作为模型提供商;

  3. 在模型类型中选择 LLM(对话用) ,另一种为 Embedding(嵌入用)

  4. 打开终端,运行 ollama list,复制想要集成的模型名称(如 llama3);

  5. 粘贴至 Model Name 输入框;

  6. 设置 Base URL

    • 如果 Dify 运行在 Docker 容器内,而 Ollama 运行在本地,则需使用:

      复制代码
      http://host.docker.internal:11434
  7. 保存配置。

3. 测试模型集成效果

配置完成后,你就可以在 Dify 中创建一个新应用,使用刚刚配置的模型来对话或执行任务了。

总结

通过本文你可以实现:

  • ✅ 使用 Docker 快速部署 Dify;

  • ✅ 修复可能出现的镜像版本问题;

  • ✅ 集成本地 Ollama 模型,实现 LLM 聊天功能。


如你有更进一步的自定义部署需求(如绑定域名、HTTPS 配置、多用户权限管理等),可继续深入研究 Dify 的官方文档和社区资源。如果你希望我继续扩展某部分内容,比如创建具体应用示例,也可以告诉我!

相关推荐
疯癫的老码农12 小时前
【小白入门docker】创建Spring Boot Hello World应用制作Docker镜像并运行
java·spring boot·分布式·docker·微服务
小刘不想改BUG12 小时前
Docker 部署微服务项目详细步骤
docker·微服务·容器
橄榄熊12 小时前
Docker MySQL 使用全流程
mysql·docker·容器
前方一片光明12 小时前
Linux—升级openssh常见的问题与解决方案
linux·运维·服务器
珊瑚礁的猪猪侠13 小时前
Nginx从入门到精通:小白实战教程
运维·nginx
wanhengidc13 小时前
云手机在软件资源方面的优势
运维·服务器·网络·游戏·智能手机
邂逅星河浪漫13 小时前
【DockerFile+Nginx+DockerCompose】前后端分离式项目部署(docker容器化方式)
nginx·docker·centos·部署·docker-compose·dockerfile·容器化部署
野熊佩骑14 小时前
CentOS二进制安装包方式部署K8S集群之系统初始化
运维·docker·微服务·云原生·容器·kubernetes·centos
小闫BI设源码14 小时前
Kubernetes 集群高可用
云原生·容器·kubernetes·滚动更新·operator模式·helm包管理·ci/cd集成
烦躁的大鼻嘎14 小时前
【Linux】深入探索多线程编程:从互斥锁到高性能线程池实战
linux·运维·服务器·开发语言·c++·算法·ubuntu