k8s +cilium+metallb 集群流量走向

🟢 第一步:客户端访问 VIP

  • 外部客户端(Client)通过某个 VIP:Port 发起请求。

  • MetalLB 的 Speaker Pod 会通过 ARP 广播或 BGP 告诉外部网络设备:"VIP 是我负责的",这一步相当于"声明主权"。

  • 网络设备(如交换机、路由器)将目标是该 VIP 的流量转发到某个 Kubernetes 节点(如 Node A)。


🟡 第二步:节点接收并进入网络栈

  • 数据包到达 Node A 的物理网卡。

  • 在内核网络栈的早期阶段,Cilium 安装的 eBPF 程序就会接管该数据包。

  • 它会检查该包的目标 VIP 和端口,并从内存中的 Service 映射表中进行查找。


🟠 第三步:匹配 Service 并选择后端 Pod

  • 如果成功匹配到某个 Kubernetes Service,Cilium 根据配置的负载均衡算法(如 random、maglev)选择一个健康的后端 Pod,称为 Pod B。

  • 然后执行 DNAT(目标地址转换)

    • 将目标 IP 从 VIP 替换为 Pod B 的 IP(PodIP_B);

    • 将目标端口从 Service 的 Port 替换为 Pod 的 TargetPort(如果有端口映射)。


🔵 第四步:判断 Pod B 所在位置

  • 如果 Pod B 位于当前节点(Node A)上

    • 数据包会通过主机上的 veth pair(虚拟网卡对)直接转发到 Pod B 的网络命名空间中。
  • 如果 Pod B 在另一个节点(Node C)上

    • Cilium 会将数据包封装成 VXLAN 或 Geneve 隧道包;

    • 然后通过底层网络将其发送到 Node C;

    • Node C 解封装后再通过本地 veth 接口将数据包投递给 Pod B。


🟣 第五步:Pod B 处理并响应请求

  • Pod B 接收到请求后进行处理,并发送响应包:

    • 源 IP 是 PodIP_B;

    • 目标 IP 是客户端 IP。


🔴 第六步:SNAT 处理并回送响应

  • 在响应包离开节点前,Cilium 的 eBPF 程序会根据 Service 的配置进行 SNAT(源地址转换),以确保客户端能够正确接收响应:

    • 如果 Service 配置为 externalTrafficPolicy: Cluster,响应包的源 IP 会改为 VIP;

    • 如果配置为 Local 且 Pod B 在本节点,源 IP 会被改为 Node A 的 IP;

    • 如果 Pod B 不在本地,可能不做 SNAT,保持 PodIP_B 直接作为源地址。

  • 最终,响应包被发送回客户端,完成整个请求过程。

补充

veth pair是什么

veth pair 是 Linux 中用于连接两个网络命名空间的虚拟网卡「隧道」,就像两头连通的水管,在 Pod 和主机之间传输数据。

  • 在 Pod 里,看到的网卡是 eth0(其实是 veth pair 的一端);

  • 在主机里,会看到一个类似 lxc7a4d966402c0@if71 的接口(veth pair 的另一端);

相关推荐
cyber_两只龙宝8 分钟前
【Oracle】Oracle之DQL中WHERE限制条件查询
linux·运维·数据库·云原生·oracle
lvyuanj2 小时前
zookeeper_cluster
分布式·zookeeper·云原生
星梦清河2 小时前
01 微服务
微服务·云原生·架构
http阿拉丁神猫2 小时前
kubernetes知识点汇总43-47
云原生·容器·kubernetes
迷藏4943 小时前
**发散创新:基于角色与属性的混合权限模型在微服务架构中的实战落地**在现代分布式系统中,
java·python·微服务·云原生·架构
张3233 小时前
Kubernetes服务发现
云原生·kubernetes
七七powerful3 小时前
K8s 工具安装文档 — Harbor + ArgoCD
容器·kubernetes·argocd
立莹Sir3 小时前
云原生实战:从零搭建企业级K8s环境
云原生·容器·kubernetes
立莹Sir3 小时前
云原生全解析:从概念到实践,Java技术栈如何拥抱云原生时代
java·开发语言·云原生
modelmd4 小时前
Docker 重命名数据卷
运维·docker·容器