Dify+Ollama模型搭建攻略:本地环境实战指南

一、环境准备

1、硬件要求

硬件类型 最低要求 推荐配置 备注
操作系统 Windows 10 64 位(版本 ≥ 2004)/ Windows 11 64 位 Windows 11 64 位 必须支持 Hyper-V 或 WSL2
CPU 支持虚拟化(AMD-V/Intel VT),≥ 4 核 8 核及以上 虚拟化需在 BIOS 中开启
内存 ≥ 8GB 16GB+ Qwen3:4b 模型运行占用 4-6GB,Docker+Dify 占用 4-8GB
硬盘 剩余空间 ≥ 50GB 剩余空间 ≥ 100GB 含 Docker 镜像(约 10GB)、Qwen3:4b 模型(约 2.4GB)、运行缓存
网络 稳定外网 百兆以上带宽 需下载 Docker 镜像、Dify 源码、Ollama 模型

2、WSL2 安装与配置

Dify 是基于 Docker 运行的开源大模型应用开发平台,在 Windows 系统上直接运行 Docker 或 Dify 容易出现兼容性、性能问题,而 WSL2(Windows Subsystem for Linux 2)能提供更原生的 Linux 环境,更适配 Docker 和 Dify 的运行需求。

1、以管理员身份打开 PowerShell

按下 Win + X,选择「Windows PowerShell (管理员)」(或「终端 (管理员)」)。

2、启用 WSL 和虚拟机功能

执行以下命令(逐条运行):

bash 复制代码
# 启用 WSL 功能
dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart

# 启用虚拟机平台功能
dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart

执行完成后重启电脑,使功能生效。

3、设置 WSL2 为默认版本

下载并安装 WSL2 内核更新包(微软官方):

bash 复制代码
wsl --set-default-version 2

# 测试是否安装成功
wsl --list --verbose

二、Docker环境部署

1、下载docker安装包::https://www.docker.com/products/docker-desktop/
2、安装 Docker Desktop(依赖 WSL2)

双击 Docker Desktop Installer.exe,进入安装界面:

  • 勾选「Use WSL 2 instead of Hyper-V」。

  • 勾选「Add shortcut to desktop」。

3、安装完成后,点击「Close and restart」,电脑会自动重启。
4、验证Docker安装
bash 复制代码
> docker --version
预计输出:Docker version 29.2.1, build a5c7197

三、Dify环境搭建

参考官方文档,效率最高,可避免各种问题

官方文档:https://docs.dify.ai/zh/self-host/quick-start/docker-compose

1、克隆 Dify

创建一个目录专门部署Dify,进入该目录,将 Dify 源代码克隆到本地机器。

bash 复制代码
git clone --branch "$(curl -s https://api.github.com/repos/langgenius/dify/releases/latest | jq -r .tag_name)" https://github.com/langgenius/dify.git

# windows电脑执行官方文档的命令可能会报没有jq程序,最简单的手动指定版本克隆,访问https://github.com/langgenius/dify/releases,获取版本号,例如:
git clone --branch 1.13.0 https://github.com/langgenius/dify.git
2、启动 Dify
  1. 导航到 Dify 源代码中的 docker 目录:

    bash 复制代码
    cd dify/docker
  2. 复制示例环境配置文件:

    bash 复制代码
    cp .env.example .env  
  3. 启动容器(第一次会拉取镜像,耗时较长,如存在失败,可尝试重新执行,或单独拉取镜像):

    bash 复制代码
    docker compose up -d
  4. 验证所有容器是否成功运行

    bash 复制代码
    docker compose ps

​ 每个容器的状态应为 Uphealthy

3、访问Dify
bash 复制代码
# 打开管理员初始化页面以设置管理员账户
http://localhost/install
# 完成管理员账户设置后,在以下地址登录 Dify
http://localhost

四、Ollama+Qwen3:4b环境部署

1、下载Ollama安装包

官方下载:https://ollama.com/download/windows

安装过程图形化界面一路点点点

2、验证安装

bash 复制代码
ollama --version

3、下载Qwen3:4b 模型、

bash 复制代码
ollama pull qwen3:4b

完全支持图形化界面,新手友好

五、Dify对接ollama

1、打开 Dify 工作台(http://localhost:8080),使用管理员账号登录。
2、点击右侧头像「设置 → 模型提供商」,选择 Ollama ,点击安装,耐心等待。
3、Ollama安装完成后,会在模型列表显示,点击添加模型。
4、配置模型信息,参考如下,重点为"基础URL:http://host.docker.internal:11434",本地模型无需设置凭证,点击添加即可。
5、验证效果

点击 【工作室 -> 从应用模板创建】,例如选择 "知识库+聊天机器人",画布中会显示 workflow的多个节点,只需将其中的模型修改为上述添加的Qwen3即可。

一起看下效果:

至此,你就拥有了一个本地无需联网的智能聊天机器人,可以基于此在工作流中扩展,比如添加知识库,让其学习更多的信息。

---THE END---

今天的内容就分享到这里。

有问题欢迎留言交流,也可以加我微信深入探讨(公众号:BigDataLab)。

关注我,不错过每一篇干货,下期继续为你带来更实用的内容!

(如果需要python、大数据、大模型相关学习资料,可以联系我,分享给你)

相关推荐
lcx_defender2 小时前
【Ollama】Windows系统使用Ollama部署本地大模型
ollama
非社会人士2 小时前
verl 中序列长度相关配置梳理:理清数据、Rollout 与 PPO 训练边界
大模型·强化学习·verl
Shining05962 小时前
前沿模型系列(三)《检索增强的语言模型》
人工智能·学习·其他·语言模型·自然语言处理·大模型·rag
技术小甜甜2 小时前
[AI] 从文档问答到流程自动化:Dify 最近为什么总出现在 AI 落地讨论里?
运维·人工智能·自动化·工作流·dify
翔云1234564 小时前
OpenClaw与Claude Code的Skill比较
ai·大模型·openclaw
程序员柒叔4 小时前
Dify 版本追踪 - 2026-W12
人工智能·github·工作流·dify
李白你好4 小时前
一款基于大语言模型 (LLM) 的网络安全纸上推演靶场生成工具
大模型
蜡台5 小时前
整合一些 免费甚至无限量token平台,方便OpenClaw 使用,及一些相关使用配置代码
nvidia·token·ollama·openrouter·openclaw·龙虾
草莓泰面包17 小时前
虚拟机VMware安装OpenClaw
人工智能·ai·大模型·openclaw