2025年保姆级教程:阿里云服务器部署Dify+Ollama,打造专属AI应用平台

前言

作为开源的LLM应用开发平台,Dify凭借易用的可视化操作、完善的RAG引擎和灵活的工作流编排能力,成为比LangChain更适合生产环境的选择。很多开发者想搭建专属AI应用,但本地部署受硬件限制,云服务器部署成为最优解。

本文结合阿里云服务器的选型推荐,带大家从零实现Dify完整部署,包括服务器配置、环境搭建、Ollama关联和应用开发,全程实操无坑,新手也能轻松上手!

一、阿里云服务器选型推荐(性价比首选)

Dify部署需要依赖Docker容器,同时运行大模型对CPU、内存要求较高,结合个人/小型团队使用场景,推荐以下配置:

配置类型 规格 适用场景 优势 参考价格(年付)
入门级 2核4G,40G云盘,CentOS 8.2 个人测试、小型应用开发 成本低,满足基础部署需求 约300-500元
进阶级 4核8G,80G云盘,CentOS 8.2 团队协作、多模型运行 性能均衡,支持并发访问 约800-1200元
专业级 8核16G,100G云盘,CentOS 8.2 生产环境、复杂工作流 运行流畅,支持大模型推理 约1500-2000元

优惠链接点击购买

选型关键要点:

  1. 操作系统优先选择CentOS 8.2或Ubuntu 20.04,兼容性更好
  2. 内存建议≥4G,否则运行Dify+Ollama会卡顿
  3. 云盘选择SSD类型,读写速度更快,提升部署效率
  4. 带宽建议≥1M,保证模型拉取和应用访问流畅
  5. 购买后记得在阿里云控制台开放80、443、11434、5000端口(安全组配置)

也可以通过链接,能看到里面一系列云主机型号选择

二、服务器环境准备(全程命令行操作)

2.1 连接阿里云服务器

使用Xshell或FinalShell工具连接,输入服务器公网IP、用户名(默认root)和密码,连接成功后进入命令行界面。

2.2 安装Docker和Docker Compose

Dify基于Docker部署,先完成环境依赖安装:

bash 复制代码
# 更新系统包
yum update -y

# 安装Docker依赖
yum install -y yum-utils device-mapper-persistent-data lvm2

# 设置Docker镜像源(阿里云加速)
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

# 安装Docker
yum install -y docker-ce docker-ce-cli containerd.io

# 启动Docker并设置开机自启
systemctl start docker
systemctl enable docker

# 验证Docker安装成功
docker --version

# 安装Docker Compose
curl -L "https://github.com/docker/compose/releases/download/v2.20.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose

# 赋予执行权限
chmod +x /usr/local/bin/docker-compose

# 验证Docker Compose安装成功
docker-compose --version

2.3 配置Docker镜像加速(关键步骤)

阿里云服务器默认有Docker镜像加速地址,配置后拉取镜像速度提升10倍:

bash 复制代码
# 创建Docker配置目录
mkdir -p /etc/docker

# 编写配置文件(替换为自己的阿里云加速地址,在容器镜像服务中获取)
tee /etc/docker/daemon.json <<-'EOF'
{
  "registry-mirrors": ["https://xxxx.mirror.aliyuncs.com"]
}
EOF

# 重启Docker服务
systemctl daemon-reload
systemctl restart docker

三、Dify部署步骤(社区版)

3.1 下载Dify源码

推荐使用1.1.3稳定版本,兼容性更好:

bash 复制代码
# 安装Git
yum install -y git

# 克隆Dify源码
git clone https://github.com/langgenius/dify.git

# 进入源码目录
cd dify

# 切换到1.1.3版本
git checkout v1.1.3

# 进入docker目录
cd docker

3.2 配置环境变量

bash 复制代码
# 复制环境变量模板
cp .env.example .env

# 编辑.env文件(可根据需求修改端口和数据库配置)
vim .env

# 关键配置项(默认即可,无需修改)
# WEB_PORT=5000
# DB_PASSWORD=dify_db_password
# REDIS_PASSWORD=dify_redis_password

3.3 启动Dify服务

bash 复制代码
# 后台启动所有服务
docker-compose up -d

# 查看启动状态(确保所有容器都是up状态)
docker-compose ps

首次启动会拉取多个镜像,耐心等待5-10分钟(取决于服务器带宽)。启动成功后

通过浏览器 访问 http://服务器公网IP:5000/install 即可进入Dify初始化页面。

3.4 初始化Dify

  1. 访问初始化页面,选择简体中文
  2. 设置管理员账户(邮箱、用户名、密码,密码需包含字母和数字,长度≥8位)
  3. 点击"设置"完成初始化,进入Dify登录页面
  4. 输入账号密码登录,看到主界面说明Dify部署成功!

四、Ollama部署与Dify关联

4.1 在阿里云服务器安装Ollama

Ollama是轻量级本地大模型运行工具,支持Llama 2、DeepSeek等模型:

bash 复制代码
# 下载Ollama安装脚本
curl -fsSL https://ollama.com/install.sh | sh

# 启动Ollama服务
systemctl start ollama
systemctl enable ollama

# 验证安装成功
ollama --version

# 拉取DeepSeek-R1小模型(适合服务器运行)
ollama pull deepseek-r1:1.5b

4.2 配置Dify关联Ollama

  1. 编辑Dify的.env文件,添加Ollama配置:
bash 复制代码
# 进入Dify的docker目录
cd /root/dify/docker

# 编辑.env文件
vim .env

# 在文件末尾添加以下配置
CUSTOM_MODEL_ENABLED=true
OLLAMA_API_BASE_URL=http://localhost:11434

# 重启Dify服务使配置生效
docker-compose restart
  1. 在Dify界面配置Ollama模型:
  • 登录Dify,点击右上角用户名→"设置"→"模型供应商"

  • 找到"Ollama",点击"安装模型供应商"

  • 点击"添加模型",配置如下:

    • 模型类型:LLM
    • 模型名称:deepseek-r1:1.5b(与Ollama拉取的模型名称一致)
    • 基础URL:http://localhost:11434
    • 上下文长度:4096
  • 点击"保存",模型添加成功!

五、测试Dify应用功能

5.1 创建聊天助手应用

  1. 点击"Dify工作室"→"创建空白应用"→选择"聊天助手"
  2. 应用名称填写"测试助手",点击"创建"
  3. 在"编排"页面,选择模型为deepseek-r1:1.5b
  4. 提示词输入:"你是一个智能助手,负责解答用户的问题"
  5. 点击"调试与预览",输入"你是谁?",模型会返回响应,说明功能正常!

5.2 知识库功能测试

  1. 创建新应用,选择"聊天助手",名称填写"知识库助手"
  2. 点击"知识库"→"添加"→"创建知识库"
  3. 上传本地PDF或TXT文件(支持15MB以内,格式包括PDF、DOCX、MD等)
  4. 文本分段设置:最大长度500tokens,重叠长度50tokens,点击"下一步"
  5. 索引方式选择"经济",点击"完成"
  6. 在编排页面,启用"知识库",选择刚刚创建的知识库
  7. 预览时输入文件中的相关问题,Dify会从知识库中检索答案并回复!

六、服务器安全配置与优化

6.1 安全组配置

在阿里云控制台→云服务器ECS→安全组→配置规则,开放以下端口:

  • 80/tcp:HTTP访问
  • 443/tcp:HTTPS访问
  • 5000/tcp:Dify访问
  • 11434/tcp:Ollama服务
  • 22/tcp:SSH连接(仅允许自己的IP访问,提高安全性)

6.2 性能优化

  1. 调整Docker资源限制,编辑docker-compose.yaml,添加资源配置:
yaml 复制代码
services:
  web:
    deploy:
      resources:
        limits:
          cpus: '2'
          memory: 2G
  api:
    deploy:
      resources:
        limits:
          cpus: '2'
          memory: 2G
  1. 定期清理Docker镜像和容器,释放空间:
bash 复制代码
# 清理未使用的镜像
docker image prune -a

# 清理停止的容器
docker container prune

七、常见问题排查

  1. Dify访问不了?
  • 检查安全组是否开放5000端口
  • 查看Docker容器状态:docker-compose ps,确保所有容器正常运行
  • 查看日志:docker-compose logs -f web
  1. Ollama模型拉取失败?
  • 检查服务器网络是否正常,可配置阿里云DNS:223.5.5.5
  • 更换更小的模型,如llama2:7b
  1. 模型响应缓慢?
  • 升级服务器配置(增加内存和CPU)
  • 选择更小的模型版本
  • 关闭不必要的Docker容器,释放资源

总结

通过阿里云服务器部署Dify+Ollama,我们可以拥有一个完全自主可控的AI应用开发平台,支持聊天助手、文本生成、知识库问答等多种场景。相比本地部署,阿里云服务器稳定性更高、可扩展性更强,适合个人开发者和小型团队长期使用。

按照本文步骤操作,全程无复杂配置,即使是新手也能顺利完成部署。接下来就可以基于Dify的工作流、Agent等高级功能,开发自己的专属AI应用了!如果遇到问题,欢迎在评论区交流~

相关推荐
悦悦欧呐呐呐呐2 小时前
数据库事务是什么,怎么用的
服务器·数据库·oracle
带刺的坐椅3 小时前
Solon AI 开发学习5 - chat - 支持哪些模型?及方言定制
java·ai·openai·solon
想唱rap3 小时前
C++ map和set
linux·运维·服务器·开发语言·c++·算法
CodeByV3 小时前
【Linux】Ext 系列文件系统深度解析:从磁盘到软硬链接
linux·服务器
梦在深巷、4 小时前
linux系统防火墙之iptables
linux·运维·服务器
Learn Beyond Limits5 小时前
Data Preprocessing|数据预处理
大数据·人工智能·python·ai·数据挖掘·数据处理
Lay_鑫辰6 小时前
西门子诊断-状态和错误位(“轴”工艺对象 V1...3)
服务器·网络·单片机·嵌入式硬件·自动化
做人不要太理性6 小时前
【Linux系统】线程的同步与互斥:核心原理、锁机制与实战代码
linux·服务器·算法
xcLeigh6 小时前
AI的提示词专栏:“Prompt Chaining”把多个 Prompt 串联成工作流
人工智能·ai·prompt·提示词·工作流