在 AI 应用快速发展的今天,开源项目如 Dify 正成为构建本地化 AI 应用的利器。通过 Dify,你可以轻松地集成不同的大语言模型(LLM),如 Ollama,并快速创建可交互的 AI 应用。本篇文章将带你一步步通过 Docker 在本地部署 Dify,并完成 Ollama 模型的集成配置。
一、准备工作:安装 Docker
在正式部署前,需要先确保本地环境已安装好 Docker。
-
可前往 Docker 官网 下载适合你系统的 Docker Desktop;
-
安装完成后,打开终端(Windows 用户可使用 CMD 或 PowerShell)执行
docker -v
,验证是否成功安装。
二、获取并解压 Dify 项目文件
-
打开 Dify GitHub 仓库;
-
点击 Code > Download ZIP 下载项目压缩包;
-
解压缩后,进入解压出的
dify
文件夹,再进入docker
子目录。
三、通过 Docker Compose 启动服务
在 dify/docker
文件夹中,按以下步骤操作:
# 启动终端并切换到当前目录
cd dify/docker
# 启动 Docker Compose
docker compose up -d
服务成功启动后,打开浏览器访问:
http://127.0.0.1
首次访问会跳转到安装页面,设置管理员密码,即可进入管理后台。
四、解决配置文件版本问题(如有)
在部分环境中,可能会遇到配置文件中定义的镜像版本不可用的情况。这时需要:
-
打开
docker-compose.yml
文件; -
找到
dify-api
和dify-web
两个服务; -
将它们的镜像版本号修改为当前 GitHub 上最新的稳定版本。
例如:
services:
dify-api:
image: langgenius/dify-api:latest
dify-web:
image: langgenius/dify-web:latest
保存文件后,重新运行 docker compose up -d
即可。
五、配置 Ollama 模型提供商
完成 Dify 部署后,我们来集成本地运行的 Ollama 模型:
1. 打开 Model Provider 页面
进入 Dify 后台,点击左侧导航栏的 Settings > Model Provider。
2. 添加 Ollama 模型服务
-
点击 Add;
-
在弹窗中选择 Ollama 作为模型提供商;
-
在模型类型中选择 LLM(对话用) ,另一种为 Embedding(嵌入用);
-
打开终端,运行
ollama list
,复制想要集成的模型名称(如llama3
); -
粘贴至
Model Name
输入框; -
设置
Base URL
:-
如果 Dify 运行在 Docker 容器内,而 Ollama 运行在本地,则需使用:
http://host.docker.internal:11434
-
-
保存配置。
3. 测试模型集成效果
配置完成后,你就可以在 Dify 中创建一个新应用,使用刚刚配置的模型来对话或执行任务了。
总结
通过本文你可以实现:
-
✅ 使用 Docker 快速部署 Dify;
-
✅ 修复可能出现的镜像版本问题;
-
✅ 集成本地 Ollama 模型,实现 LLM 聊天功能。
如你有更进一步的自定义部署需求(如绑定域名、HTTPS 配置、多用户权限管理等),可继续深入研究 Dify 的官方文档和社区资源。如果你希望我继续扩展某部分内容,比如创建具体应用示例,也可以告诉我!