梳理日常开发涉及的负载均衡

负载均衡是当前分布式微服务时代最能提及的词之一,出于对分层、解耦、弱依赖、可配置、可靠性等概念的解读,一对一的模式变得不再可信赖,千变万化的网络环境中,冗余和备份显得格外重要,稍大型的系统就会存在大量微服务、服务器、中间件资源,如何将各个资源进行平衡调度,在不浪费算力的同时保证服务的可靠性、稳定性来提供基础架构。负载均衡是一个绕不开的话题,这里只列举出开发过程中需要了解到的负载均衡框架或技术,底层涉及的算法就不在此详述。

以web服务为例,从用户侧出发到服务端请求的处理,大概要经过以下四层负载均衡,最终实现用户请求与接口处理的对应。

1. DNS解析负载均衡

DNS主要是对域名的解析,正常域名可以添加多条主机记录,例如www二级域名对应记录值的IP地址,同一www二级域名可以添加多条IP地址的记录值,当存在多个IP,可以通过权重配置修改IP的权重,修改完成后,用户发起域名请求时,根据域名应答DNS查询时,所有IP地址按照预先设置的权重进行返回不同的解析结果,将解析流量分配到不同的服务器上,从而达到负载均衡的目的。

实现效果

假设www域名解析地址中添加了三条记录,分别对应3台服务器(IP 地址分别为IP-1、IP-2、IP-3)

|------|------|------|------|
| 记录类型 | 主机记录 | 解析线路 | 记录值 |
| A | www | 默认 | IP-1 |
| A | www | 默认 | IP-2 |
| A | www | 默认 | IP-3 |

  • 未开启权重配置的效果

当Local DNS访问云解析DNS,云解析DNS将这3个解析记录全部返回给Local DNS,Local DNS再将所有的IP地址返回给网站访问者,网站访问者的浏览器会随机访问其中一个IP。在无DNS负载均衡的权威DNS中,这种方法能够在一定程度上减轻单台服务器的压力,但它不能区分服务器的差异,不能反映服务器的当前运行状态。

默认权重效果

权重配置未开启时默认配置的是1:1:1权重,云解析DNS会根据(默认权重1:1:1),轮询3个A记录,依次返回3个IP地址,以响应网站访问者的请求。DNS解析结果如下所示:

复制代码
用户1 访问,返回 IP-1
用户2 访问,返回 IP-2
用户3 访问,返回 IP-3
用户4 访问,返回 IP-1
用户5 访问,返回 IP-2
用户6 访问,返回 IP-3
......
  • 权重设置效果

权重配置开启后,进行权重设置,在DNS请求应答中,IP地址按照预先设置的权重进行返回,可以实现将解析流量按照权重进行分配。例如,将上述3条解析记录的权重比设置为2:1:1时,则DNS解析结果如下所示:

复制代码
用户1 访问,返回 IP-1
用户2 访问,返回 IP-2
用户3 访问,返回 IP-3
用户4 访问,返回 IP-1
用户5 访问,返回 IP-1
用户6 访问,返回 IP-2
......

2. Nginx负载均衡

Nginx是日常开发中使用较多的服务器,可以通过不同的负载均衡算法来解决请求量过大情况下的服务器资源分配问题。较为常见的负载均衡算法有轮询、加权轮询、IP 哈希等等。可以用来处理前端请求,或者是代理后端服务接口,通常来说,一个正常的Nginx Linux 服务器可以达到10w次/秒的请求处理性能。

nginx的负载均衡策略配置很简单,在 nginx.conf 文件中配置好需要轮询的服务器,写在 http 中的 upstream 对象里:

复制代码
upstream backserver{ 
    ip_hash; 
    server 127.0.0.1:9090 down; (down 表示单前的server暂时不参与负载) 
    server 127.0.0.1:8080 weight=2; (weight 默认为1.weight越大,负载的权重就越大) 
    server 127.0.0.1:6060; 
    server 127.0.0.1:7070 backup; (其它所有的非backup机器down或者忙的时候,请求backup机器) 
} 

3. 微服务网关负载均衡

网关是系统的唯一对外的入口,介于前端端和后端之间的中间层,处理非业务功能,提供路由请求、鉴权、监控、缓存、限流等功能。承接上面的Nginx,正常微服务集群都有多个网关作为入口,这里可以用nginx做请求分发,将前端请求分发到不同的网关接口上,当请求到达网关并处理完成后,此时网关需要将具体的请求转发到具体微服务,以SpringCloud Gateway为例,spring提供了丰富的路由策略,可以解析到 HTTP层的数据。因此它可以根据请求的 Path 或 Domain 甚至是 Header 作为条件,再通过本地自定义的负载均衡策略,将请求转发到不同的微服务实例上。

具体代码实现过程中,可以从注册中心查询当前微服务注册的实例列表,并缓存到redis中间隔几秒进行更新,防止网关流量过大打垮注册中心,网关每次拿到实例列表后根据内部实现的负载均衡策略进行分发。

java 复制代码
  	@Autowired
    private LoadBalanceHandler loadBalance;

    @Override
    public Mono<Void> filter(ServerWebExchange exchange, GatewayFilterChain chain) {
        ServerHttpResponse response = exchange.getResponse();
        //获取原来的请求路径
        String requestPath = exchange.getAttribute(FilterDict.SYSTEM_REQUEST_PATH);
      	//自实现负载均衡策略
        String instanceInfo = loadBalance.randomSelectInstance();
        //如果没有服务,则直接返回报错
        if (StrUtil.isEmpty(instanceInfo)) {
            return response.writeWith(Mono.just(GateWayFilterUtils.writeData(exchange, RecoError.GEN_SERVER_BUSY)));
        }
        //用于测试负载均衡算法对IP分配是否均衡
//        redisUtil.zIncrementScore("test:gateway:load:ip",instanceInfo,1);
        //分割地址中IP和端口
        String[] serviceAddress = instanceInfo.split(StrUtil.COLON);
        String requestSchema = exchange.getRequest().getURI().getScheme();
        //拼接URL的数据
        assert ObjectUtil.isNotNull(requestPath);
        URI uri = UriComponentsBuilder.
                newInstance().scheme(requestSchema).
                host(serviceAddress[0].trim()).port(Integer.parseInt(serviceAddress[1].trim()))
                .path(requestPath).query(exchange.getRequest().getURI().getRawQuery()).build(true)
                .toUri();
        //将拼接好的URL装入新的exchange
        ServerWebExchange mutateExchange = exchange.mutate().request(builder -> builder.uri(uri).build()).build();
        Optional<Route> route = Optional.of(exchange.getAttribute(GATEWAY_ROUTE_ATTR));
        Route newRoute = Route.async()
                .asyncPredicate(route.get().getPredicate())
                .filters(route.get().getFilters())
                .id(route.get().getId())
                .order(route.get().getOrder())
                .uri(uri).build();
        mutateExchange.getAttributes().put(GATEWAY_ROUTE_ATTR, newRoute);
        mutateExchange.getAttributes().put(FilterDict.SYSTEM_APP_IP_ADDR, serviceAddress[0]);
        return chain.filter(mutateExchange);
    }

4. 微服务接口负载均衡

上面提到的网关负载是找到具体微服务来承接,不同于微服务之间接口调用的负载均衡,如SpringCloud feign中对Robbin进行了封装,在使用Feign时提供负载平衡的http客户端,如果需要配置自己的负载算法,可以自定义Ribbon的算法即可。

还有dubbo的接口中也提供了负载均衡功能,类似于官方文档中提供的使用方式,只需要调整 loadbalance 相应取值即可,每种负载均衡策略取值请参见文档负载均衡 | Apache Dubbo

java 复制代码
服务端服务级别
<dubbo:service interface="..." loadbalance="roundrobin" />
客户端服务级别
<dubbo:reference interface="..." loadbalance="roundrobin" />
服务端方法级别
<dubbo:service interface="...">
    <dubbo:method name="..." loadbalance="roundrobin"/>
</dubbo:service>
客户端方法级别
<dubbo:reference interface="...">
    <dubbo:method name="..." loadbalance="roundrobin"/>
</dubbo:reference>

5. 总结

借用dubbo文档中对负载均衡的场景解释,负载均衡的好处有以下方面

  • 高可用性:部署服务的多个实例以确保即使一个或多个实例失败服务保持可用,负载均衡功能可用于在这些实例之间分配传入的请求确保以负载均衡方式使用每个实例的方式,还能最大限度地降低服务停机的风险。
  • 流量管理:限制指向特定服务实例的流量,以防止过载或确保公平的资源分配,负载均衡特性提供了 Round Robin、Weighted Round Robin、Random、Least Active Load Balancing 等多种负载均衡策略,可以用来实现流量控制。
  • 服务划分:将一个服务划分成多个逻辑组件,每个逻辑组件可以部署在不同的实例上,使用负载平衡以确保每个分区平衡的方式在这些实例之间分配请求,同时在实例发生故障的情况下提供故障转移功能。
  • 性能优化:负载平衡可用于优化服务的性能,通过跨多个实例分发请求可以利用可用的计算资源来缩短响应时间并减少延迟。

但有好处就有坏处,比起以往一条龙服务的形式,负载均衡的引入必然会增加系统复杂度,如果说微服务增加系统的宽度,那负载均衡无疑将这种宽度进一步放大,容易造成资源的浪费。

SLB负载均衡实践 - 云起实验室-在线实验-上云实践-阿里云开发者社区-阿里云官方实验平台-阿里云

相关推荐
熙客9 小时前
阿里云负载均衡SLB的使用
网络·阿里云·云原生·云计算·负载均衡
2301_787328491 天前
25.负载均衡-Nginx、HAProxy、LVS 全解析
nginx·负载均衡·lvs
siriuuus1 天前
Nginx 负载均衡调度算法
运维·nginx·负载均衡
川石课堂软件测试1 天前
全链路Controller压测负载均衡
android·运维·开发语言·python·mysql·adb·负载均衡
舰长1151 天前
nginx 负载均衡配置
运维·nginx·负载均衡
hzylyh4 天前
【Java实现单例模式的五种方式及其优缺点分析】
负载均衡
Vio7254 天前
Ribbon负载均衡
spring cloud·ribbon·负载均衡
zrande4 天前
Nginx 负载均衡通用方案
nginx·负载均衡
维尔切6 天前
Nginx 反向代理与负载均衡
运维·nginx·负载均衡
知白守黑2676 天前
反向代理和负载均衡
运维·负载均衡