Nginx配置实例-负载均衡

1、实现结果:

  1. 浏览器地址栏输入地址http://192.168.206.128/edu/a.html,将该请求平均到8080和8081端口中去

2、准备工作

  1. 准备两台tomcat服务器,一台8080,一台8081
  2. 在两台tomcat里面webapps目录中,创建名称是edu文件夹,在edu文件夹中创建页面a.html,用于测试

3.在Nginx的配置文件中进行负载均衡的配置

然后启动或者重新加载nginx

四、测试

刷新页面

可以看到请求已经平均到了两个tomcat

五、nginx负载均衡提供了几种分配服务器策略

  1. 轮询(默认)

    每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除

  2. weight

    weight代表权重,默认为1,权重越高,被分配的客户端越多

    指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况

    例如:

c 复制代码
upstream server_pool{
	server 192.168.206.128:8080 weight=5;
	server 192.168.206.128:8081 weight=10;
}
  1. ip_hash
    每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题,例如:
c 复制代码
upstream server_pool{
	ip_hash;
	server 192.168.206.128:8080;
	server 192.168.206.128:8081;
}
  1. fair(第三方)
    按后端服务器的响应时间来分配请求,响应时间短的优先分配
c 复制代码
upstream server_pool{
	server 192.168.206.128:8080;
	server 192.168.206.128:8081;
	fair;
}
相关推荐
小王要努力上岸1 小时前
[特殊字符] Nginx全栈实战指南:Rocky Linux 10 & Ubuntu 24.04 双系统部署
linux·nginx·ubuntu
invicinble7 小时前
对linux形成认识
linux·运维·服务器
小Pawn爷8 小时前
14.VMmare安装ubuntu
linux·运维·ubuntu
技术路上的探险家8 小时前
8 卡 V100 服务器:基于 vLLM 的 Qwen 大模型高效部署实战
运维·服务器·语言模型
有谁看见我的剑了?8 小时前
介绍一款 测试 DNS解析成功率的网站
运维
半桔8 小时前
【IO多路转接】高并发服务器实战:Reactor 框架与 Epoll 机制的封装与设计逻辑
linux·运维·服务器·c++·io
HABuo9 小时前
【linux文件系统】磁盘结构&文件系统详谈
linux·运维·服务器·c语言·c++·ubuntu·centos
Howrun7779 小时前
关于Linux服务器的协作问题
linux·运维·服务器
yunfuuwqi11 小时前
OpenClaw✅真·喂饭级教程:2026年OpenClaw(原Moltbot)一键部署+接入飞书最佳实践
运维·服务器·网络·人工智能·飞书·京东云
迎仔11 小时前
C-算力中心网络隔离实施方法:怎么搞?
运维·网络