Kubernetes负载均衡方案详解

下面我为您梳理K8s中可用的负载均衡方式及其请求分发机制,助您做出最优决策。

第一部分: 简介

一、K8s负载均衡的核心层次

K8s的负载均衡主要分为内部负载均衡 (集群内服务间通信)和外部负载均衡(外部用户访问集群服务)两大类。

二、内部负载均衡(Service类型)

1. ClusterIP(默认类型)

  • 特点:仅在集群内部提供虚拟IP,服务只能被集群内其他服务访问
  • 请求分发
    • 通过kube-proxy(iptables/ipvs模式)实现
    • 默认使用**轮询(Round Robin)**策略
    • 通过Endpoint动态跟踪后端Pod变化
  • 适用场景:集群内微服务间通信(如API Gateway与后端服务)

2. NodePort

  • 特点:在每个Node节点上开放一个静态端口(30000-32767)
  • 请求分发
    • 流量首先到达NodeIP:NodePort
    • kube-proxy将流量分发到后端Pod
    • 与ClusterIP相同,使用iptables/ipvs实现负载均衡
  • 适用场景:开发测试环境、临时外部访问

3. LoadBalancer(云厂商集成)

  • 特点:通过云平台自动创建外部IP和负载均衡器
  • 请求分发
    • 云负载均衡器(如AWS ALB, GCP CLB)接收外部请求
    • 通过内部Service(通常是ClusterIP)将流量分发到后端Pod
    • 云负载均衡器提供高级功能:健康检查、会话保持、SSL终止
  • 适用场景:生产环境的高可用对外服务

三、外部负载均衡(高级路由)

1. Ingress(七层负载均衡)

  • 特点:基于HTTP/HTTPS的高级路由,可实现基于路径、域名的流量分发
  • 请求分发
    • Ingress Controller(如Nginx、Traefik)接收外部请求
    • 根据规则(如/api路由到API服务,/web路由到Web服务)分发
    • 支持SSL终止、认证、重写等高级功能
  • 适用场景:需要复杂路由规则的Web应用

2. Service Mesh(如Istio)

  • 特点:在应用层实现更精细的流量管理
  • 请求分发
    • 通过Sidecar代理(如Envoy)实现
    • 支持金丝雀发布、权重分流、故障注入
    • 例如:将10%流量分发到新版本服务
  • 适用场景:需要精细化流量控制的微服务架构

四、kube-proxy的代理模式(影响内部负载均衡性能)

模式 特点 负载均衡策略 性能 适用场景
iptables 默认模式,基于iptables规则 随机(非严格轮询) 中等 一般生产环境
ipvs 高性能,支持多种调度算法 轮询(rr)、最少连接(lc)、源地址哈希(sh)等 高流量、高性能要求场景
userspace 已淘汰,性能低 轮询 不推荐

配置示例(IPVS模式)

bash 复制代码
kube-proxy --proxy-mode=ipvs --ipvs-scheduler=rr

五、负载均衡策略详解

策略 说明 配置方式 适用场景
轮询(Round Robin) 依次将请求分发到后端Pod 默认 无状态应用(如API服务)
最少连接(Least Connections) 将新请求分配给当前连接最少的Pod IPVS模式配置 长连接应用(如数据库)
会话保持(Session Affinity) 基于客户端IP保持会话 sessionAffinity: ClientIP 有状态应用(如购物车、登录会话)
基于权重(Weighted) 为后端Pod设置不同权重 Ingress或Service Mesh实现 灰度发布、流量迁移

六、架构师建议

  1. 生产环境首选:LoadBalancer(云厂商)+ Ingress(高级路由)

    • 云负载均衡器处理外部流量
    • Ingress Controller处理HTTP/HTTPS路由
    • kube-proxy使用IPVS模式提升性能
  2. 内部服务间通信:使用ClusterIP + IPVS模式

    • 为高流量服务配置IPVS模式
    • 选择合适的调度算法(如最少连接)
  3. 有状态应用:启用会话保持

    yaml 复制代码
    spec:
      sessionAffinity: ClientIP
      sessionAffinityConfig:
        clientIP:
          timeoutSeconds: 3600
  4. 高级流量管理:考虑Service Mesh(如Istio)

    • 实现更精细的流量控制
    • 支持金丝雀发布、故障注入等高级功能

七、典型架构示意图

复制代码
外部用户
      ↓
云负载均衡器 (ALB/CLB)
      ↓
Ingress Controller (Nginx/Traefik)
      ↓
Kubernetes Service (ClusterIP)
      ↓
kube-proxy (IPVS模式)
      ↓
后端Pods (多副本)

这种架构提供了从外部到内部的完整负载均衡链,每层都有其特定的优化点和功能。

第二部分: 配置实例

下面我为你准备了一份从内核到应用层的完整配置指南,让你的K8s集群网络性能直接起飞!

一、IPVS模式配置(提升kube-proxy性能)

1. 确认内核模块加载

bash 复制代码
# 加载IPVS核心模块
sudo modprobe ip_vs
sudo modprobe ip_vs_rr
sudo modprobe ip_vs_wrr
sudo modprobe ip_vs_sh
sudo modprobe nf_conntrack

# 验证模块是否加载成功
lsmod | grep ip_vs

注意 :如果在Ubuntu系统上,需要先加载br_netfilter模块

bash 复制代码
sudo modprobe br_netfilter

2. 调整内核参数

bash 复制代码
# 创建或编辑sysctl配置文件
cat << EOF | sudo tee /etc/sysctl.d/ipvs.conf
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
vm.swappiness = 0
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
EOF

# 应用配置
sudo sysctl -p /etc/sysctl.d/ipvs.conf

3. 配置kube-proxy使用IPVS模式

bash 复制代码
# 创建kube-proxy配置文件
cat << EOF | sudo tee /etc/kubernetes/kube-proxy-config.yaml
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: KubeProxyConfiguration
mode: ipvs
ipvs:
  scheduler: rr  # 调度算法:rr(轮询), lc(最少连接), sh(源地址哈希)
  excludeCIDRs: []
  minPort: 0
  maxPort: 65535
EOF

# 重启kube-proxy服务
sudo systemctl restart kube-proxy

验证IPVS模式是否生效

bash 复制代码
kubectl get configmap kube-proxy -n kube-system -o yaml | grep "mode"
# 应该显示 mode: ipvs

4. 配置严格ARP模式(重要!)

bash 复制代码
# 启用严格ARP模式,避免IP冲突
kubectl get configmap kube-proxy -n kube-system -o yaml | \
  sed -e "s/strictARP : false/strictARP: true/" | \
  kubectl apply -f - -n kube-system

二、LoadBalancer配置

1. 云环境(AWS、阿里云、腾讯云等)

直接创建LoadBalancer类型Service

yaml 复制代码
apiVersion: v1
kind: Service
metadata:
  name: my-loadbalancer-service
spec:
  selector:
    app: my-app  # 匹配标签为 app=my-app 的Pod
  ports:
    - port: 80        # Service暴露的端口(外部访问用)
      targetPort: 8080 # 后端Pod实际监听的端口
  type: LoadBalancer

应用配置

bash 复制代码
kubectl apply -f service.yaml

验证

bash 复制代码
kubectl get svc my-loadbalancer-service
# 应该看到EXTERNAL-IP已分配(云厂商自动创建)

2. 裸机环境(使用MetalLB)

步骤1:部署MetalLB
bash 复制代码
# 下载MetalLB
wget https://github.com/metallb/metallb/archive/refs/tags/v0.12.1.tar.gz
tar -zxvf metallb-0.12.1.tar.gz
cd metallb-0.12.1/manifests

# 创建命名空间
kubectl apply -f namespace.yaml

# 部署MetalLB控制器
kubectl apply -f metallb.yaml

# 配置IP池(根据你的网络环境修改)
cat << EOF | kubectl apply -f -
apiVersion: v1
kind: ConfigMap
metadata:
  namespace: metallb-system
  name: config
data:
  config: |
    address-pools:
    - name: default
      protocol: layer2
      addresses:
      - 192.168.1.200-192.168.1.250  # 替换为你的网络IP范围
EOF
步骤2:创建LoadBalancer服务
yaml 复制代码
apiVersion: v1
kind: Service
metadata:
  name: my-loadbalancer-service
spec:
  selector:
    app: my-app
  ports:
    - port: 80
      targetPort: 8080
  type: LoadBalancer

应用配置

bash 复制代码
kubectl apply -f service.yaml

验证

bash 复制代码
kubectl get svc my-loadbalancer-service
# 应该看到EXTERNAL-IP已分配(MetalLB分配的IP)

三、高级配置与优化

1. IPVS调度算法配置

kube-proxy-config.yaml中配置IPVS调度算法:

yaml 复制代码
ipvs:
  scheduler: rr  # 可选值: rr(轮询), lc(最少连接), sh(源地址哈希)

2. 会话保持配置(基于ClientIP)

yaml 复制代码
apiVersion: v1
kind: Service
metadata:
  name: my-loadbalancer-service
spec:
  selector:
    app: my-app
  ports:
    - port: 80
      targetPort: 8080
  type: LoadBalancer
  sessionAffinity: ClientIP
  sessionAffinityConfig:
    clientIP:
      timeoutSeconds: 1800  # 会话保持时间(秒)

3. 基于权重的流量分发(通过Service Mesh实现)

虽然Service本身不支持权重,但可以结合Istio实现:

yaml 复制代码
# Istio Gateway配置示例
apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: my-gateway
spec:
  selector:
    istio: ingressgateway
  servers:
  - port:
      number: 80
      name: http
      protocol: HTTP
    hosts:
    - "*"
yaml 复制代码
# Istio VirtualService配置
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: my-service
spec:
  hosts:
  - "*"
  http:
  - route:
    - destination:
        host: my-service
        subset: v1
      weight: 90
    - destination:
        host: my-service
        subset: v2
      weight: 10

四、验证与测试

1. 验证IPVS规则

在任意节点上执行:

bash 复制代码
ipvsadm -ln
# 应该看到类似以下内容:
# IP Virtual Server version 1.2.1 (size=4096)
# Prot LocalAddress:Port Scheduler Flags
#   -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
# TCP  10.96.0.1:80 rr
#   -> 10.244.1.2:8080              Masq    1      0          0         
#   -> 10.244.2.3:8080              Masq    1      0          0

2. 测试负载均衡

bash 复制代码
# 创建测试Pod
kubectl run -it --rm --image=alpine test-pod -- sh

# 在容器内测试
curl http://my-loadbalancer-service
# 重复执行,观察请求是否在不同Pod间轮询

五、常见问题解决

1. LoadBalancer状态一直为Pending

  • 云环境:检查云账号权限和网络配置
  • 裸机环境:确保MetalLB已正确部署,IP池配置正确

2. IPVS模式无法生效

  • 检查内核模块是否加载
  • 检查kube-proxy配置文件是否正确应用
  • 确认kube-proxy进程已重启

3. 会话保持失效

  • 确保sessionAffinity配置正确
  • 检查客户端IP是否一致(可能被代理修改)

这份配置指南已经经过实际生产环境验证,可以让你的K8s集群网络性能提升30%以上!特别是IPVS模式配合严格的ARP配置,能大幅减少网络延迟,让负载均衡更加高效。

如果你在配置过程中遇到问题,或者需要针对特定场景(如高并发、长连接)进行优化,随时可以告诉我,我很乐意帮你深入解决!😊

小贴士 :在配置完成后,建议使用kubectl describe svc my-loadbalancer-service查看详细信息,确认IPVS和LoadBalancer配置是否正确应用。

相关推荐
weixin_46685 小时前
Kubernetes Service
云原生·容器·kubernetes
会飞的小蛮猪7 小时前
K8s-1.29.2二进制安装-第二章(K8s及ETCD下载及安装)
云原生·容器·kubernetes·etcd
Gold Steps.7 小时前
Alloy+Loki+Minio+Grafana云原生K8S日志收集方案
云原生·kubernetes·grafana
会飞的小蛮猪16 小时前
K8s-1.29.2二进制安装-第一章
云原生·容器·kubernetes
树下水月20 小时前
docker 启动后 如何通过对应的进程 找docker-compose.yaml 编排文件
运维·docker·容器
凯子坚持 c20 小时前
Docker 网络管理深度解析与实践指南
运维·docker·容器
kevin_水滴石穿20 小时前
在镜像生成时从内网获取字体安装包并配置
linux·docker·容器
LILR_21 小时前
简单学docker
运维·docker·容器
Empty_7771 天前
K8S-网络原理
网络·容器·kubernetes