微服务的演化过程

目录

1.服务注册与发现

服务注册与发现

传统服务:

核心依赖:服务注册中心(Nacos/Eureka/Consul)

流程:

每个微服务启动 → 主动向注册中心注册自己的 IP、端口、服务名

消费者调用前 → 先从注册中心拉取服务列表

本地负载均衡(Ribbon/LoadBalancer)→ 选一个节点调用

扩容:多启几个实例,都去注册中心注册,消费者自动感知

K8S

全部下沉到基础设施,K8S的几个组件就完成了注册发现的工作

  1. API Server
    所有资源(Pod、Service、Endpoint)的统一入口
    接收控制器、kubelet 的注册写入请求,存储到 etcd
    是服务注册数据的总入口
  2. etcd
    K8S 集群分布式存储
    持久化存储:Service、Endpoint、Pod 地址、标签等注册元数据
    相当于服务注册中心的配置存储层
  3. Endpoint Controller(端点控制器)
    最关键的服务注册核心:
    监听 Service 和 Pod 变化
    自动把匹配 Service 标签的 Pod IP + 端口 维护到 Endpoints 资源中
    完成:Pod 自动注册到 Service 的核心逻辑
  4. kube-proxy
    服务发现 & 流量转发核心
    监听 Service、Endpoints 变更
    在每个节点上生成 iptables/ipvs 路由规则
    实现集群内通过 Service 虚拟 IP 访问后端 Pod,完成服务发现与负载均衡
  5. CoreDNS / kube-dns
    域名方式的服务发现
    监听 Service 资源,自动生成域名解析记录
    集群内 Pod 通过 服务名.命名空间.svc.cluster.local 域名访问服务
    提供DNS 解析式服务发现
  6. Kubelet
    上报本节点 Pod 状态与 IP 信息到 API Server
    间接参与服务注册的数据上报

流程:

Pod 创建 → Kubelet 上报信息到 APIServer → 存入 etcd

EndpointController 匹配 Service 标签 → 把 Pod 写入 Endpoints(服务注册完成)

kube-proxy 感知 Endpoints/Service 变化 → 更新节点路由规则

CoreDNS 解析 Service 域名 → Pod 可用域名 / ClusterIP访问(服务发现完成)

传统微服务的痛点
  1. Eureka 时代
    每个微服务实例主动直连注册中心,大家都要主动上报心跳、拉服务列表。
    实例越多,注册中心连接压力、心跳压力、同步压力越大,集群规模一大就扛不住。
  2. Nacos 进阶一步
    Nacos 用长连接替代短连接,服务上下线感知更快、推送更及时。
    但本质没变:
    还是每个业务实例都要跟 Nacos 建立长连接。
    机器、实例越多,Nacos 接入层、连接管理、推送压力越大,规模上限依然有瓶颈。
K8S的解决思路

所有节点 Kubelet 只统一跟 APIServer 交互

业务 Pod 不用连任何注册中心、不用发心跳、不用建长连接

集群扩机器、扩 Pod,对业务完全无感

服务发现、健康检查、实例列表维护,全部下沉到 K8S 平台层

整个架构不再随着业务实例暴涨而压垮注册中心

完美解决了:实例越多,注册中心压力越大、架构越难横向扩展的痛点。

问题

你也许会问K8S不也是要跟APIService交互吗,它们之间也有长连接,怎么就比Nacos 要好?

以下就是答案:

  1. 传统注册中心致命短板
    Eureka / Nacos:
    每一个业务实例长连接常驻(每一台机器)
    一旦服务列表变化,要全量推送给所有客户端
    实例越多、服务越多,推送风暴、连接风暴直接压垮中心
  2. K8S 做了三个架构级优化,完美避开这个坑
    ① 只有 Kubelet / 控制器 跟 APIServer 通信
    业务 Pod 根本不连 APIServer
    普通微服务实例根本不用上报心跳、不用注册、不用拉服务列表。
    只有节点上的 Kubelet、内部控制器在和 APIServer 交互,连接数直接砍掉几个量级。
    ② 用 Watch 订阅机制,不是轮询拉全量
    不是每次都全量查一遍 etcd 数据。
    组件(控制器、kubelet)跟 APIServer 建立 Watch 长连接:
    没变化就静静挂着,只有资源发生变化,APIServer 才下发增量事件
    只推增量,不推全量,流量极小。
    ③ 不用把服务列表下发给每一个业务 Pod
    传统:每个微服务都要完整拉一份全服务列表。
    K8S:
    业务 Pod 根本不需要知道任何实例列表
    只靠 CoreDNS + Service 访问,底层负载均衡完全下沉到集群层面。
    不需要给客户端推送任何实例变更,直接省掉最大的广播压力。
相关推荐
Juicedata1 小时前
AI 战略下架构演进:小米基于 JuiceFS 的统一存储实践
人工智能·架构
萑澈1 小时前
代理记忆架构的演进:neuDrive及其在自主智能体生态系统中的核心作用
架构
庞轩px2 小时前
第八篇:Spring与微服务——从SpringBoot到SpringCloud的演进
spring boot·spring·微服务·nacos·gateway·sentinel
ZOOOOOOU2 小时前
云平台赋能门禁终端,打造智慧社区一体化管理
大数据·数据结构·架构
小坏讲微服务2 小时前
小白搭建K8S集群0基础教程实战
docker·云原生·容器·kubernetes
9命怪猫3 小时前
[K8S小白问题集] - K8S为什么选择etcd而不是别的key-value DB?比如Redis
云原生·容器·kubernetes
青槿吖3 小时前
第一篇:Elasticsearch 入门踩坑记:从 “URL 拼写错误” 到跑通第一个搜索服务
大数据·elasticsearch·搜索引擎·spring cloud·微服务·架构·全文检索
耿公子和编程4 小时前
Android 指纹浏览器开发教程一:先把整体架构拆清楚
android·架构
Gofarlic_OMS4 小时前
CONVERGE CFD许可不够用?自动回收闲置,燃烧仿真随时跑
java·大数据·开发语言·架构·制造