RagFlow、Dify部署时,端口如何调整成指定端口

一、RagFlow部署时的端口调整

1、修改 docker-compose.yml 文件

在 RAGFlow 项目的 docker-compose.yml 文件中,找到 ports 配置部分,将默认端口映射改为固定端口。例如:

bash 复制代码
ports:
  - "8000:80"  # 将主机的 8000 端口映射到容器的 80 端口
  - "4433:443" # 将主机的 4433 端口映射到容器的 443 端口

2、重启服务

修改配置后,执行以下命令重启服务:

bash 复制代码
docker compose -p ragflow -f docker-compose.yml down      # 停止当前运行的容器
docker compose -p ragflow -f docker-compose.yml up -d     # 重新启动服务

二、Dify部署时的端口调整

1、修改环境变量文件(.env)

‌定位文件‌:在 Dify 安装目录的 docker/ 子目录下找到 .env 文件(注意文件名前有隐藏点)

‌修改端口参数‌:

bash 复制代码
# 修改 Web 服务端口
NGINX_PORT=6060
EXPOSE_NGINX_PORT=6060

# 修改 HTTPS 服务端口(若需启用)
NGINX_SSL_PORT=6443
EXPOSE_NGINX_SSL_PORT=6443

2、修改 API 访问地址(可选

若 API 服务无法访问,需同步修改 API 地址:

bash 复制代码
SERVICE_API_URL=http://实际IP:6060
APP_API_URL=http://实际IP:6060
APP_WEB_URL=http://实际IP:6060

3、重启服务

bash 复制代码
docker compose down  # 停止旧容器
docker compose up -d  # 重新启动服务

4、端口冲突排查

若端口冲突,使用以下命令检查占用情况:

bash 复制代码
netstat -ano | findstr :6060  # 查看端口占用情况
tasklist | findstr <PID>     # 查看占用进程

至此、全部结束!!!

相关推荐
飞Link1 分钟前
【AI大模型实战】万字长文肝透大语言模型(LLM):从底层原理解析到企业级Python项目落地
开发语言·人工智能·python·语言模型·自然语言处理
TechMasterPlus4 分钟前
OpenClaw 源码深度解析:下一代 AI Agent 框架的架构设计与实现原理
人工智能
不完备智能8 分钟前
🦌 DeerFlow 2.0 深度解析:字节跳动开源的"超级 Agent harness"架构揭秘
人工智能
阿木木AEcru8 分钟前
DeepSeek 崩了 13 小时,不是故障,是 V4 在换引擎
人工智能
小小工匠8 分钟前
Superpowers - 09 从构思到落地:如何用「计划编写与任务粒度」驾驭 AI 时代的软件开发
人工智能·skills·superpowers
阿聪谈架构9 分钟前
第07章(下):LangGraph 工作流进阶 —— 检查点、人工介入与多 Agent 协作
人工智能·后端
小小工匠11 分钟前
Superpowers - 08 在 AI 时代重写「需求评审会」:深入解读 Superpowers 的头脑风暴与设计规范机制
人工智能·skills·superpowers
橘子编程19 分钟前
Hermes Agent 完整使用指南
人工智能
yuhulkjv33521 分钟前
AI导出的Excel公式失效
人工智能·ai·chatgpt·excel·豆包·deepseek·ai导出鸭
七夜zippoe26 分钟前
OpenClaw 子代理(Subagent)机制详解
大数据·人工智能·subagent·openclaw·子代理