Nginx 通过匹配 Cookie 将请求定向到特定服务器

作者:程序员平 原文:mp.weixin.qq.com/s/-a-lgvWnL...

在构建 Web 服务架构时,我们通常使用 Nginx 作为反向代理和负载均衡器来分担后端服务器的压力。但在一些特定场景下,我们希望"指定某类用户的请求跳转到特定服务器",这种定向行为不仅能用于灰度发布、A/B 测试,也可以用于调试、问题排查等目的。本文我们主要以 Nginx 配置为例,介绍如何通过识别客户端 Cookie,将请求分配到不同的后端服务器上。

一、为什么要通过 Cookie 来分流请求?

之所以考虑通过识别 Cookie 的值,来将请求代理到不同的服务器,主要有以下几个目的:

1. 灰度发布 / A/B 测试

通过设置特定 Cookie(如 test_version=3),我们可以让一部分用户体验新的功能或页面,而不影响其它正式用户。例如:

bash 复制代码
if ($http_cookie ~* "test_version=3") {    proxy_pass https://ts.test.com;    break;}

这段配置会识别用户请求中的 Cookie,只要包含 test_version=3,就会将请求代理到 upstream 所指向的服务器。

  • 这样我们可以:
    • 按用户维度进行功能试验;
    • 对新版本进行分批上线,降低全量上线带来的风险;
    • 做数据分析以评估用户行为差异。

2. 定向测试或 Debug调试

开发或测试过程中,我们可能需要指定某一台服务器做调试环境,通过设置 Cookie 实现"准入控制",避免测试用户影响生产环境。

二、 Nginx配置解析

核心配置实现

bash 复制代码
location / {    limit_req zone=per_ip_and_uri burst=20 nodelay;    limit_req_status 429;
    if ($http_user_agent ~* (bingbot)) {        return 403;    }
    if ($http_cookie ~* "test_version=3") {        proxy_pass https://ts.test.com;        break;    }
    proxy_pass https://release.test.com/;
    proxy_set_header Host $host;    proxy_set_header X-Real-IP $remote_addr;    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;}
css 复制代码
http {    upstream release.test.com {        server 172.31.51.115:443 weight=2;         server 172.31.48.141:443 weight=4;         server 172.31.63.236:443 weight=4;    }
    # 调试/灰度服务器    upstream ts.test.com {        server 172.31.52.221:443 weight=10;    }}

应用场景

场景 描述
灰度发布 小部分用户访问新版服务,主流用户继续访问旧版
A/B 测试 多版本内容对照测试用户偏好,支持业务决策
Bug 复现 将问题用户流量定向至日志开启服务器,便于排查
流量控制 将高流量用户定向到特定资源池进行保护
内部控制访问 通过设置 Cookie 临时开启某些功能或调试页面

其他

除了 Cookie,还有可以通过哪些方式做定向?

方式 场景 是否支持动态分流
URL 参数 临时功能跳转 否,需要前端支持
Header 头部 内部测试 / API 调用
IP 地址段 区域用户区分 否,粒度粗
Nginx map 结合 set 配置级优化 是,性能更优
Lua 模块 动态逻辑 是,功能强大但复杂

大家可以根据实际业务选择不同方式

Cookie设置方式

可以通过以下方式设置测试Cookie:

  • 开发人员手动设置浏览器Cookie
  • 通过登录系统自动分配
  • 通过中间页面选择加入测试

三、 总结

通过在 Nginx 中读取 Cookie 并将用户请求定向到特定服务器,我们可以轻松实现灰度发布、A/B 测试等精细化流量管理策略。这种方式成本低、实现快,对现有系统侵入小,是一种极具实用价值的方式。

如果你也有类似的流量定向需求,不妨试试基于 Cookie 的 Nginx 分流方案,它可能是你通往高可控、低成本灰度发布的第一步。

相关推荐
uzong6 小时前
面试官:Redis中的 16 库同时发送命令,服务端是串行执行还是并行执行
后端·面试·架构
呼啦啦啦啦啦啦啦啦6 小时前
常见的排序算法
java·算法·排序算法
anlogic6 小时前
Java基础 8.18
java·开发语言
追逐时光者7 小时前
.NET 使用 MethodTimer 进行运行耗时统计提升代码的整洁性与可维护性!
后端·.net
练习时长一年7 小时前
AopAutoConfiguration源码阅读
java·spring boot·intellij-idea
你的人类朋友8 小时前
【Node.js】什么是Node.js
javascript·后端·node.js
源码宝8 小时前
【智慧工地源码】智慧工地云平台系统,涵盖安全、质量、环境、人员和设备五大管理模块,实现实时监控、智能预警和数据分析。
java·大数据·spring cloud·数据分析·源码·智慧工地·云平台
David爱编程9 小时前
面试必问!线程生命周期与状态转换详解
java·后端
dae bal9 小时前
关于RSA和AES加密
前端·vue.js
LKAI.10 小时前
传统方式部署(RuoYi-Cloud)微服务
java·linux·前端·后端·微服务·node.js·ruoyi