一、环境准备
1、硬件要求
| 硬件类型 | 最低要求 | 推荐配置 | 备注 |
|---|---|---|---|
| 操作系统 | Windows 10 64 位(版本 ≥ 2004)/ Windows 11 64 位 | Windows 11 64 位 | 必须支持 Hyper-V 或 WSL2 |
| CPU | 支持虚拟化(AMD-V/Intel VT),≥ 4 核 | 8 核及以上 | 虚拟化需在 BIOS 中开启 |
| 内存 | ≥ 8GB | 16GB+ | Qwen3:4b 模型运行占用 4-6GB,Docker+Dify 占用 4-8GB |
| 硬盘 | 剩余空间 ≥ 50GB | 剩余空间 ≥ 100GB | 含 Docker 镜像(约 10GB)、Qwen3:4b 模型(约 2.4GB)、运行缓存 |
| 网络 | 稳定外网 | 百兆以上带宽 | 需下载 Docker 镜像、Dify 源码、Ollama 模型 |
2、WSL2 安装与配置
Dify 是基于 Docker 运行的开源大模型应用开发平台,在 Windows 系统上直接运行 Docker 或 Dify 容易出现兼容性、性能问题,而 WSL2(Windows Subsystem for Linux 2)能提供更原生的 Linux 环境,更适配 Docker 和 Dify 的运行需求。
1、以管理员身份打开 PowerShell
按下 Win + X,选择「Windows PowerShell (管理员)」(或「终端 (管理员)」)。
2、启用 WSL 和虚拟机功能
执行以下命令(逐条运行):
bash
# 启用 WSL 功能
dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart
# 启用虚拟机平台功能
dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart
执行完成后重启电脑,使功能生效。
3、设置 WSL2 为默认版本
下载并安装 WSL2 内核更新包(微软官方):
- 适用于 x64 架构:https://wslstorestorage.blob.core.windows.net/wslblob/wsl_update_x64.msi
- 安装完成后,在管理员 PowerShell 中执行:
bash
wsl --set-default-version 2
# 测试是否安装成功
wsl --list --verbose
二、Docker环境部署
1、下载docker安装包::https://www.docker.com/products/docker-desktop/
2、安装 Docker Desktop(依赖 WSL2)
双击 Docker Desktop Installer.exe,进入安装界面:
-
勾选「Use WSL 2 instead of Hyper-V」。
-
勾选「Add shortcut to desktop」。
3、安装完成后,点击「Close and restart」,电脑会自动重启。
4、验证Docker安装
bash
> docker --version
预计输出:Docker version 29.2.1, build a5c7197
三、Dify环境搭建
参考官方文档,效率最高,可避免各种问题
官方文档:https://docs.dify.ai/zh/self-host/quick-start/docker-compose
1、克隆 Dify
创建一个目录专门部署Dify,进入该目录,将 Dify 源代码克隆到本地机器。
bash
git clone --branch "$(curl -s https://api.github.com/repos/langgenius/dify/releases/latest | jq -r .tag_name)" https://github.com/langgenius/dify.git
# windows电脑执行官方文档的命令可能会报没有jq程序,最简单的手动指定版本克隆,访问https://github.com/langgenius/dify/releases,获取版本号,例如:
git clone --branch 1.13.0 https://github.com/langgenius/dify.git
2、启动 Dify
-
导航到 Dify 源代码中的
docker目录:bashcd dify/docker -
复制示例环境配置文件:
bashcp .env.example .env -
启动容器(第一次会拉取镜像,耗时较长,如存在失败,可尝试重新执行,或单独拉取镜像):
bashdocker compose up -d -
验证所有容器是否成功运行
bashdocker compose ps
每个容器的状态应为 Up 或 healthy。
3、访问Dify
bash
# 打开管理员初始化页面以设置管理员账户
http://localhost/install
# 完成管理员账户设置后,在以下地址登录 Dify
http://localhost
四、Ollama+Qwen3:4b环境部署
1、下载Ollama安装包
官方下载:https://ollama.com/download/windows
安装过程图形化界面一路点点点
2、验证安装
bash
ollama --version
3、下载Qwen3:4b 模型、
bash
ollama pull qwen3:4b
或
完全支持图形化界面,新手友好

五、Dify对接ollama
1、打开 Dify 工作台(http://localhost:8080),使用管理员账号登录。
2、点击右侧头像「设置 → 模型提供商」,选择 Ollama ,点击安装,耐心等待。
3、Ollama安装完成后,会在模型列表显示,点击添加模型。

4、配置模型信息,参考如下,重点为"基础URL:http://host.docker.internal:11434",本地模型无需设置凭证,点击添加即可。

5、验证效果
点击 【工作室 -> 从应用模板创建】,例如选择 "知识库+聊天机器人",画布中会显示 workflow的多个节点,只需将其中的模型修改为上述添加的Qwen3即可。

一起看下效果:

至此,你就拥有了一个本地无需联网的智能聊天机器人,可以基于此在工作流中扩展,比如添加知识库,让其学习更多的信息。
---THE END---
今天的内容就分享到这里。
有问题欢迎留言交流,也可以加我微信深入探讨(公众号:BigDataLab)。
关注我,不错过每一篇干货,下期继续为你带来更实用的内容!
(如果需要python、大数据、大模型相关学习资料,可以联系我,分享给你)