Nginx配置负载均衡

Nginx配置负载均衡

使用nginx来配置负载均衡也是比较简单的

首先在http块中配置虚拟域名所对应的地址

    # 负载均衡
    upstream myserver {
        server 127.0.0.1:8080;
        server 127.0.0.1:8082;
    }

可以配置的参数有以下选项 #down 不参与负载均衡

#weight=5; 权重,越高分配越多 #backup; 预留的备份服务器

#max_fails 允许失败的次数

#fail_timeout 超过失败次数后,服务暂停时间

#max_coons 限制最大的接受的连接数

#根据服务器性能不同,配置适合的参数

然后在server块中配置监听

    server {
        listen       9000;
        server_name  localhost;

        location / {
            root   html;
            index  index.html index.htm;
            # 对应上述upstream所配置的名称
            proxy_pass http://myserver;
            
            ### 下面都是次要关注项
            proxy_set_header Host $host;
            proxy_method POST;

          	# 指定不转发的头部字段
            proxy_hide_header Cache-Control;

          	# 指定转发的头部字段
            proxy_pass_header Server-IP;

          	# 是否转发包体
            proxy_pass_request_body on | off;

          	# 是否转发头部
            proxy_pass_request_headers on | off;

          	# 显形/隐形 URI,上游发生重定向时,Nginx 是否同步更改 uri
            proxy_redirect on | off;
            #允许客户端请求的最大单文件字节数
            client_max_body_size 10m; 
            #缓冲区代理缓冲用户端请求的最大字节数
            client_body_buffer_size 128k;
            #nginx跟后端服务器连接超时时间(代理连接超时)
            proxy_connect_timeout 90; 
            #后端服务器数据回传时间(代理发送超时)
            proxy_send_timeout 90; 
            #连接成功后,后端服务器响应时间(代理接收超时)
            proxy_read_timeout 90; 
            #设置代理服务器(nginx)保存用户头信息的缓冲区大小
            proxy_buffer_size 4k; 
            #proxy_buffers缓冲区,网页平均在32k以下的设置
            proxy_buffers 4 32k;
            #高负荷下缓冲大小(proxy_buffers*2)
            proxy_busy_buffers_size 64k; 
            #设定缓存文件夹大小,大于这个值,将从upstream服务器传
            proxy_temp_file_write_size 64k;
            
        }
    }

这样在使用9000端口访问服务器的时候就会进行8080和8082的负载调用

Nginx 负载均衡策略

轮询(默认)

按照时间顺序逐一的分配到不同的服务器,如果后端服务器挂掉,会自动删除,待恢复自动添加上

权重(weight)

weight代表权重,默认为1,权重越大分配的请求越多,weight和访问比率成正比,用于后端服务器性能不均的情况

    # 负载均衡
    upstream myserver {
        server 127.0.0.1:8080 weight=1;
        server 127.0.0.1:8082 weight=2;
    }
最少连接

使用最少连接的负载均衡,可以防止过多的请求都堆积到一台服务器上

# 负载均衡
    upstream myserver {
    		least_conn;
        server 127.0.0.1:8080;
        server 127.0.0.1:8082;
    }
ip_hash

每个请求按照访问的ip进行hash分配,使得每个访问者固定访问某一个服务器,可以解决session问题

    # 负载均衡
    upstream myserver {
    		ip_hash;
        server 127.0.0.1:8080;
        server 127.0.0.1:8082;
    }
url_hash

按照访问的url进行hash分配,每一个url定向到同一个后端服务器

upstream的fail_timeout和max_fails参数是用来判断负载均衡upstream中的某个server是否失效,在fail_timeout的时间内,nginx与upstream中某个server的连接尝试失败了max_fails次,则nginx会认为该server已经失效,在接下来的fail_timeout时间内,nginx不再将请求分发给失效的server

# 负载均衡
upstream myserver {
  hash $request_uri;
  # 指定hash算法
  hash_method crc32;
  server 127.0.0.1:8080;
  server 127.0.0.1:8082;
}
fair(第三方)

根据请求的响应时间来分配,哪个服务器响应的快分配给谁

    # 负载均衡
    upstream myserver {
    		fair;
        server 127.0.0.1:8080;
        server 127.0.0.1:8082;
    }

https://zhhll.icu/2021/服务器/Nginx/7.配置负载均衡/

本文由mdnice多平台发布

相关推荐
测试界萧萧2 小时前
外包干了4年,技术退步太明显了。。。。。
自动化测试·软件测试·功能测试·程序人生·面试·职场和发展
AI_小站1 天前
LLM——10个大型语言模型(LLM)常见面试题以及答案解析
人工智能·程序人生·语言模型·自然语言处理·大模型·llm·大模型面试
良技漫谈1 天前
Rust移动开发:Rust在iOS端集成使用介绍
后端·程序人生·ios·rust·objective-c·swift
我爱学Python!1 天前
AI Prompt如何帮你提升论文中的逻辑推理部分?
人工智能·程序人生·自然语言处理·chatgpt·llm·prompt·提示词
博纳软云_小程序一站服务平台2 天前
手边酒店多商户版V2源码独立部署_博纳软云
程序人生·微信小程序·小程序·微信公众平台
AI_小站2 天前
多模态大模型微调实践!PAI+LLaMA Factory搭建AI导游
人工智能·程序人生·语言模型·大模型·llm·产品经理·多模态大模型
良技漫谈2 天前
Rust移动开发:Rust在Android端集成使用介绍
android·程序人生·rust·kotlin·学习方法
AI_小站2 天前
【AI工作流】FastGPT - 深入解析FastGPT工作流编排:从基础到高级应用的全面指南
人工智能·程序人生·语言模型·大模型·llm·fastgpt·大模型应用
python_知世2 天前
AI时代:成为产品经理的核心路径
人工智能·深度学习·程序人生·自然语言处理·产品经理·计算机技术·大模型应用
提笔惊蚂蚁3 天前
java-web-day7-会话跟踪技术
java·开发语言·前端·程序人生