对比k8s的service和kube-proxy

协同和工作过程:

当使用 kubectl创建一个 Service 时,这个 Service 的规范(包括它的名称、ClusterIP、标签选择器等)会被作为一个 API 对象保存到 Master 节点的 etcd 存储中

​​分发与同步​​:每个 Worker 节点上运行的 kube-proxy组件会持续地监控(watch)API Server,以便及时发现 Service 和其后端 Pod(通过 Endpoints 或 EndpointSlice 对象跟踪)的变化

​​本地规则生效​​:一旦 kube-proxy感知到变化,它就会在本节点上更新相应的网络规则(通常是 iptables 或性能更优的 IPVS 规则)

。这些规则的核心作用是:​​"当有数据包发往 Service 的 ClusterIP 和端口时,将其负载均衡地转发到某个健康 Pod 的 IP 和端口上"​​。


总结意义:

​​一致的访问体验​​:正因为每个节点都有完整的转发规则,所以无论你的客户端 Pod 运行在集群中的 ​​任何一个节点​​ 上,它都可以通过 Service 的 ClusterIP 或 DNS 名称访问到后端服务。请求到了某个节点,该节点上的规则就会负责将其正确转发。

​​高可用性​​:即使某个 Worker 节点宕机,只要 Service 的后端 Pod 还在其他健康的节点上运行,那么从存活节点发起的服务访问就不会受到影响。因为每个节点的转发规则是独立的。

​​与 Ingress 的分工​​:需要注意的是,Service 默认是四层(TCP/UDP)的抽象

。而通常处理七层(HTTP/HTTPS)路由的 Ingress 控制器本身也以一个或多个 Pod 的形式运行在 Worker 节点上,它需要依赖一个类型为 ClusterIP或 NodePort的 Service 来接收流量

。所以,​​Ingress Controller Pod 和 kube-proxy 是分别独立的两个 Pod​​

相关推荐
悠闲蜗牛�5 分钟前
技术融合新纪元:深度学习、大数据与云原生的跨界实践
大数据·深度学习·云原生
徒 花32 分钟前
Nginx
运维·nginx·云原生
回忆是昨天里的海1 小时前
k8s部署dashboard ui管理平台
云原生·容器·kubernetes
guygg882 小时前
Rocky Linux 8.9配置Kubernetes集群详解,适用于CentOS环境
linux·kubernetes·centos
chen_note3 小时前
Kubernetes1.23版本搭建(三台机器)
运维·容器·kubernetes·云计算·kubepi
花落已飘3 小时前
openEuler WSL2容器化开发实战:Docker Desktop集成与应用部署
运维·docker·容器
skyeeeeee6 小时前
kubeadm安装k8s集群
后端·kubernetes
麦聪聊数据7 小时前
大数据与云原生数据库中的 SQL2API:优化跨平台数据访问与查询
数据库·sql·云原生
橙色云-智橙协同研发8 小时前
【PLM实施专家宝典】离散制造企业ECO管理优化方案:构建自动化、零错误的变更引擎
大数据·云原生·解决方案·数字化转型·plm·eco·云plm