🟢 第一步:客户端访问 VIP
-
外部客户端(Client)通过某个 VIP:Port 发起请求。
-
MetalLB 的 Speaker Pod 会通过 ARP 广播或 BGP 告诉外部网络设备:"VIP 是我负责的",这一步相当于"声明主权"。
-
网络设备(如交换机、路由器)将目标是该 VIP 的流量转发到某个 Kubernetes 节点(如 Node A)。
🟡 第二步:节点接收并进入网络栈
-
数据包到达 Node A 的物理网卡。
-
在内核网络栈的早期阶段,Cilium 安装的 eBPF 程序就会接管该数据包。
-
它会检查该包的目标 VIP 和端口,并从内存中的 Service 映射表中进行查找。
🟠 第三步:匹配 Service 并选择后端 Pod
-
如果成功匹配到某个 Kubernetes Service,Cilium 根据配置的负载均衡算法(如 random、maglev)选择一个健康的后端 Pod,称为 Pod B。
-
然后执行 DNAT(目标地址转换):
-
将目标 IP 从 VIP 替换为 Pod B 的 IP(PodIP_B);
-
将目标端口从 Service 的 Port 替换为 Pod 的 TargetPort(如果有端口映射)。
-
🔵 第四步:判断 Pod B 所在位置
-
如果 Pod B 位于当前节点(Node A)上:
- 数据包会通过主机上的 veth pair(虚拟网卡对)直接转发到 Pod B 的网络命名空间中。
-
如果 Pod B 在另一个节点(Node C)上:
-
Cilium 会将数据包封装成 VXLAN 或 Geneve 隧道包;
-
然后通过底层网络将其发送到 Node C;
-
Node C 解封装后再通过本地 veth 接口将数据包投递给 Pod B。
-
🟣 第五步:Pod B 处理并响应请求
-
Pod B 接收到请求后进行处理,并发送响应包:
-
源 IP 是 PodIP_B;
-
目标 IP 是客户端 IP。
-
🔴 第六步:SNAT 处理并回送响应
-
在响应包离开节点前,Cilium 的 eBPF 程序会根据 Service 的配置进行 SNAT(源地址转换),以确保客户端能够正确接收响应:
-
如果 Service 配置为
externalTrafficPolicy: Cluster
,响应包的源 IP 会改为 VIP; -
如果配置为
Local
且 Pod B 在本节点,源 IP 会被改为 Node A 的 IP; -
如果 Pod B 不在本地,可能不做 SNAT,保持 PodIP_B 直接作为源地址。
-
-
最终,响应包被发送回客户端,完成整个请求过程。
补充
veth pair是什么
veth pair 是 Linux 中用于连接两个网络命名空间的虚拟网卡「隧道」,就像两头连通的水管,在 Pod 和主机之间传输数据。
-
在 Pod 里,看到的网卡是
eth0
(其实是 veth pair 的一端); -
在主机里,会看到一个类似 lxc7a4d966402c0@if71 的接口(veth pair 的另一端);