kubernetes (K8S)组件介绍以及原理

一、Kubernetes 是什么?

Kubernetes 是一个可移植、可扩展的开源平台,用于管理容器化的工作负载和服务,方便进行声明式配置和自动化。Kubernetes 拥有一个庞大且快速增长的生态系统,其服务、支持和工具的使用范围广泛。Kubernetes 这个名字源于希腊语,意为"舵手"或"飞行员"。K8s 这个缩写是因为 K 和 s 之间有 8 个字符的关系。 Google 在 2014 年开源了 Kubernetes 项目。 Kubernetes 建立在 Google 大规模运行生产工作负载十几年经验的基础上, 结合了社区中最优秀的想法和实践。

二、为什么需要 Kubernetes,它能做什么?

容器是打包和运行应用程序的好方式。在生产环境中, 你需要管理运行着应用程序的容器,并确保服务不会下线。 例如,如果一个容器发生故障,则你需要启动另一个容器。 如果此行为交由给系统处理,是不是会更容易一些?

这就是 Kubernetes 要来做的事情! Kubernetes 为你提供了一个可弹性运行分布式系统的框架。 Kubernetes 会满足你的扩展要求、故障转移你的应用、提供部署模式等。 例如,Kubernetes 可以轻松管理系统的 Canary (金丝雀) 部署。

Kubernetes 为你提供:

  • 服务发现和负载均衡

    Kubernetes 可以使用 DNS 名称或自己的 IP 地址来暴露容器。 如果进入容器的流量很大, Kubernetes 可以负载均衡并分配网络流量,从而使部署稳定。

  • 存储编排

    Kubernetes 允许你自动挂载你选择的存储系统,例如本地存储、公共云提供商等。

  • 自动部署和回滚

    你可以使用 Kubernetes 描述已部署容器的所需状态, 它可以以受控的速率将实际状态更改为期望状态。 例如,你可以自动化 Kubernetes 来为你的部署创建新容器, 删除现有容器并将它们的所有资源用于新容器。

  • 自动完成装箱计算

    你为 Kubernetes 提供许多节点组成的集群,在这个集群上运行容器化的任务。 你告诉 Kubernetes 每个容器需要多少 CPU 和内存 (RAM)。 Kubernetes 可以将这些容器按实际情况调度到你的节点上,以最佳方式利用你的资源。

  • 自我修复

    Kubernetes 将重新启动失败的容器、替换容器、杀死不响应用户定义的运行状况检查的容器, 并且在准备好服务之前不将其通告给客户端。

  • 密钥与配置管理

    Kubernetes 允许你存储和管理敏感信息,例如密码、OAuth 令牌和 SSH 密钥。 你可以在不重建容器镜像的情况下部署和更新密钥和应用程序配置,也无需在堆栈配置中暴露密钥。

  • 批处理执行 除了服务外,Kubernetes 还可以管理你的批处理和 CI(持续集成)工作负载,如有需要,可以替换失败的容器。
  • 水平扩缩 使用简单的命令、用户界面或根据 CPU 使用率自动对你的应用进行扩缩。
  • IPv4/IPv6 双栈 为 Pod(容器组)和 Service(服务)分配 IPv4 和 IPv6 地址。
  • 为可扩展性设计 在不改变上游源代码的情况下为你的 Kubernetes 集群添加功能。

三、Kubernetes 的历史背景。

让我们回顾一下为何 Kubernetes 能够裨益四方。

传统部署时代:

早期,各个组织是在物理服务器上运行应用程序。 由于无法限制在物理服务器中运行的应用程序资源使用,因此会导致资源分配问题。 例如,如果在同一台物理服务器上运行多个应用程序, 则可能会出现一个应用程序占用大部分资源的情况,而导致其他应用程序的性能下降。 一种解决方案是将每个应用程序都运行在不同的物理服务器上, 但是当某个应用程序资源利用率不高时,剩余资源无法被分配给其他应用程序, 而且维护许多物理服务器的成本很高。

虚拟化部署时代:

因此,虚拟化技术被引入了。虚拟化技术允许你在单个物理服务器的 CPU 上运行多台虚拟机(VM)。 虚拟化能使应用程序在不同 VM 之间被彼此隔离,且能提供一定程度的安全性, 因为一个应用程序的信息不能被另一应用程序随意访问。

虚拟化技术能够更好地利用物理服务器的资源,并且因为可轻松地添加或更新应用程序, 而因此可以具有更高的可扩缩性,以及降低硬件成本等等的好处。 通过虚拟化,你可以将一组物理资源呈现为可丢弃的虚拟机集群。

每个 VM 是一台完整的计算机,在虚拟化硬件之上运行所有组件,包括其自己的操作系统。

容器部署时代:

容器类似于 VM,但是更宽松的隔离特性,使容器之间可以共享操作系统(OS)。 因此,容器比起 VM 被认为是更轻量级的。且与 VM 类似,每个容器都具有自己的文件系统、CPU、内存、进程空间等。 由于它们与基础架构分离,因此可以跨云和 OS 发行版本进行移植。

容器因具有许多优势而变得流行起来,例如:

  • 敏捷应用程序的创建和部署:与使用 VM 镜像相比,提高了容器镜像创建的简便性和效率。
  • 持续开发、集成和部署:通过快速简单的回滚(由于镜像不可变性), 提供可靠且频繁的容器镜像构建和部署。
  • 关注开发与运维的分离:在构建、发布时创建应用程序容器镜像,而不是在部署时, 从而将应用程序与基础架构分离。
  • 可观察性:不仅可以显示 OS 级别的信息和指标,还可以显示应用程序的运行状况和其他指标信号。
  • 跨开发、测试和生产的环境一致性:在笔记本计算机上也可以和在云中运行一样的应用程序。
  • 跨云和操作系统发行版本的可移植性:可在 Ubuntu、RHEL、CoreOS、本地、 Google Kubernetes Engine 和其他任何地方运行。
  • 以应用程序为中心的管理:提高抽象级别,从在虚拟硬件上运行 OS 到使用逻辑资源在 OS 上运行应用程序。
  • 松散耦合、分布式、弹性、解放的微服务:应用程序被分解成较小的独立部分, 并且可以动态部署和管理 - 而不是在一台大型单机上整体运行。
  • 资源隔离:可预测的应用程序性能。
  • 资源利用:高效率和高密度。

四、Kubernetes 组件

本文概述了一个正常运行的 Kubernetes 集群所需的各种组件。

核心组件

Kubernetes 集群由控制平面和一个或多个工作节点组成。以下是主要组件的简要概述:

控制平面组件(这些控制平面组件(Control Plane Component)管理集群的整体状态:)

kube-apiserver

公开 Kubernetes HTTP API 的核心组件服务器。API 服务器是 Kubernetes 控制平面的组件, 该组件负责公开了 Kubernetes API,负责处理接受请求的工作。 API 服务器是 Kubernetes 控制平面的前端。

Kubernetes API 服务器的主要实现是 kube-apiserverkube-apiserver 设计上考虑了水平扩缩,也就是说,它可通过部署多个实例来进行扩缩。 你可以运行 kube-apiserver 的多个实例,并在这些实例之间平衡流量。

etcd

具备一致性和高可用性的键值存储,用于所有 API 服务器的数据存储。一致且高可用的键值存储,用作 Kubernetes 所有集群数据的后台数据库。如果你的 Kubernetes 集群使用 etcd 作为其后台数据库, 请确保你针对这些数据有一份 备份计划。

你可以在官方文档中找到有关 etcd 的深入知识。

kube-scheduler

查找尚未绑定到节点的 Pod,并将每个 Pod 分配给合适的节点。kube-scheduler控制平面的组件, 负责监视新创建的、未指定运行节点Pod,并选择节点来让 Pod 在上面运行。调度决策考虑的因素包括单个 Pod 及多个 Pod 集合的资源需求、 软硬件及策略约束、亲和性及反亲和性规范、数据位置、工作负载间的干扰及最后时限。

kube-controller-manager

运行控制器来实现 Kubernetes API 行为。kube-controller-manager 是运行控制器进程的控制平面组件。从逻辑上讲,每个控制器都是一个单独的进程, 但是为了降低复杂性,它们都被编译到同一个可执行文件,并在同一个进程中运行。

控制器有许多不同类型。以下是一些例子,并不是全部,感兴趣的可以去官网翻阅(https://kubernetes.io/zh-cn/docs):

  • Node 控制器:负责在节点出现故障时进行通知和响应
  • Job 控制器:监测代表一次性任务的 Job 对象,然后创建 Pod 来运行这些任务直至完成
  • EndpointSlice 控制器:填充 EndpointSlice 对象(以提供 Service 和 Pod 之间的链接)。
  • ServiceAccount 控制器:为新的命名空间创建默认的 ServiceAccount。

cloud-controller-manager (optional)

一个 Kubernetes 控制平面组件, 嵌入了特定于云平台的控制逻辑。 云控制器管理器(Cloud Controller Manager)允许将你的集群连接到云提供商的 API 之上, 并将与该云平台交互的组件同与你的集群交互的组件分离开来。

cloud-controller-manager 仅运行特定于云平台的控制器。 因此如果你在自己的环境中运行 Kubernetes,或者在本地计算机中运行学习环境, 所部署的集群不包含云控制器管理器。

kube-controller-manager 类似,cloud-controller-manager 将若干逻辑上独立的控制回路组合到同一个可执行文件中,以同一进程的方式供你运行。 你可以对其执行水平扩容(运行不止一个副本)以提升性能或者增强容错能力。

下面的控制器都包含对云平台驱动的依赖:

  • Node 控制器:用于在节点终止响应后检查云平台以确定节点是否已被删除
  • Route 控制器:用于在底层云基础架构中设置路由
  • Service 控制器:用于创建、更新和删除云平台上的负载均衡器

五、Node 组件

在每个节点上运行,维护运行的 Pod 并提供 Kubernetes 运行时环境:

kubelet

确保 Pod 及其容器正常运行。kubelet 会在集群中每个节点(node)上运行。 它保证容器(containers)都运行在 Pod 中。

kubelet 接收一组通过各类机制提供给它的 PodSpec,确保这些 PodSpec 中描述的容器处于运行状态且健康。 kubelet 不会管理不是由 Kubernetes 创建的容器。

kube-proxy(可选)

维护节点上的网络规则以实现 Service 的功能。

kube-proxy 是集群中每个节点(node)上所运行的网络代理, 实现 Kubernetes 服务(Service) 概念的一部分。kube-proxy 维护节点上的一些网络规则, 这些网络规则会允许从集群内部或外部的网络会话与 Pod 进行网络通信。如果操作系统提供了可用的数据包过滤层,则 kube-proxy 会通过它来实现网络规则。 否则,kube-proxy 仅做流量转发。如果你使用网络插件为 Service 实现本身的数据包转发, 并提供与 kube-proxy 等效的行为,那么你不需要在集群中的节点上运行 kube-proxy

容器运行时(Container runtime)

负责运行容器的软件,这个基础组件使 Kubernetes 能够有效运行容器。 它负责管理 Kubernetes 环境中容器的执行和生命周期。Kubernetes 支持许多容器运行环境,例如 containerdCRI-O 以及 Kubernetes CRI (容器运行环境接口) 的其他任何实现。

六、插件(Addons)

DNS

尽管其他插件都并非严格意义上的必需组件,但几乎所有 Kubernetes 集群都应该有集群 DNS, 因为很多示例都需要 DNS 服务。集群 DNS 是一个 DNS 服务器,和环境中的其他 DNS 服务器一起工作,它为 Kubernetes 服务提供 DNS 记录。Kubernetes 启动的容器自动将此 DNS 服务器包含在其 DNS 搜索列表中。

Web 界面(仪表盘)

Dashboard 是 Kubernetes 集群的通用的、基于 Web 的用户界面。 它使用户可以管理集群中运行的应用程序以及集群本身,并进行故障排除。

容器资源监控

容器资源监控 将关于容器的一些常见的时序度量值保存到一个集中的数据库中,并提供浏览这些数据的界面。

集群层面日志

集群层面日志机制负责将容器的日志数据保存到一个集中的日志存储中, 这种集中日志存储提供搜索和浏览接口。

网络插件

网络插件 是实现容器网络接口(CNI)规范的软件组件。它们负责为 Pod 分配 IP 地址, 并使这些 Pod 能在集群内部相互通信。

七、Kubernetes 架构

八、Kubernetes 整体架构核心原理与组件交互逻辑

1、架构核心分层思想

K8s 整体分为两大层:控制平面(Master) + 工作节点(Node)

  • 控制平面:管全局、做决策,不跑业务容器;负责调度、管理、监控、自愈、存储集群所有状态数据。
  • 工作节点:执行业务、跑容器,听从控制平面指挥,真正运行我们的项目 Pod。
  • 所有组件通信核心入口:kube-apiserver ,它是整个集群的唯一网关,所有组件不直接互相通信,全部通过 APIServer 中转

2、各组件之间交互原理

  1. etcd 整个集群的分布式键值数据库 ,只存集群所有资源状态(Node、Pod、Deployment、Service、配置、副本数等),只有 kube-apiserver 能读写 etcd,其他组件无权直接访问 etcd,保证数据安全一致性。

  2. kube-apiserver(集群大门)

  • 接收所有请求:kubectl、控制器、kubelet、外部客户端全部请求都走它;
  • 做鉴权、认证、准入控制、数据校验;
  • 把合法数据持久化存入 etcd;
  • 提供资源监听(Watch) 机制,其他组件实时订阅资源变化。
  1. kube-controller-manager(控制器总管)
  • 持续通过 APIServer 监听 etcd 资源变化
  • 比如 Deployment 声明要 3 个副本,实际只有 1 个,控制器自动触发创建新 Pod;
  • 节点宕机,Node 控制器自动标记节点异常,并把上面 Pod 调度到其他节点;
  • 所有自愈、副本维持、状态同步都由各类控制器完成。
  1. kube-scheduler(调度器)
  • 监听 APIServer 中未绑定节点的新 Pod
  • 根据资源占用、节点亲和、污点、资源配额等算法选出最优 Node
  • 把 Pod 绑定到指定节点,写入 etcd。
  1. 每个 Node 上 kubelet
  • 向 APIServer 注册节点身份,上报节点资源(CPU / 内存 / 磁盘);
  • 实时从 APIServer 拉取分配给自己的 Pod 配置;
  • 调用容器运行时(containerd) 创建、启动、停止容器;
  • 定期上报 Pod 运行状态、健康状态给 APIServer,最终存入 etcd。
  1. kube-proxy
  • 监听 APIServer 中 Service、Endpoint 变化;
  • 在当前节点维护路由 /iptables/ipvs 规则
  • 实现集群内部 Pod 访问、Service 负载均衡、外部流量接入转发。
  1. 插件联动
  • CoreDNS:监听 Service 与 Pod 变化,自动生成域名解析记录,实现服务名直接访问;
  • CNI 网络插件:给 Pod 分配 IP、打通节点间 Pod 互通;
  • 监控 / 日志插件:采集容器指标和日志,统一存储展示。

核心交互总结:所有动作 kubectl → APIServer → 存 etcd ;控制器 / 调度器 /kubelet 监听 APIServer 资源变更 → 执行对应动作 → 结果再回写 etcd,形成闭环。


九、应用从代码打包 → 镜像构建 → 推送仓库 → K8s 部署上线 完整全流程

流程总链路

开发代码 → 编写 Dockerfile → 构建镜像 → 推送镜像仓库 → 编写 K8s 资源清单 (YAML) → kubectl 提交 APIServer → 控制器处理 → 调度器选节点 → kubelet 创建 Pod → 容器启动 → Service 暴露访问 → 应用正式可用

步骤 1:本地代码打包

开发完成 Java/Go/ 前端项目,执行打包:

  • Java:Maven/Gradle 打成 jar 包
  • 前端:npm build 打包静态资源得到可运行的程序包。

步骤 2:编写 Dockerfile 构建容器镜像

编写 Dockerfile,定义基础环境、拷贝程序、启动命令;执行:

复制代码
docker build -t 镜像仓库地址/项目名:版本 .

构建出统一可移植容器镜像,实现开发、测试、生产环境一致。

步骤 3:推送镜像到镜像仓库

复制代码
docker push 镜像仓库地址/项目名:版本

仓库可以是:DockerHub、阿里云镜像仓库、私有 Harbor 仓库,保证所有 K8s 节点都能拉取到该镜像。

步骤 4:编写 K8s YAML 资源清单

编写两类核心 YAML:

  1. Deployment:定义应用镜像、副本数、资源限制、健康检查、镜像拉取策略;负责保证指定数量 Pod 一直运行,宕机自动重建。
  2. Service:统一入口、负载均衡、固定访问地址,屏蔽 Pod 动态 IP 变化。可选:Ingress、ConfigMap、Secret、PV 存储等。

步骤 5:kubectl 提交部署请求

在任意能连接集群的机器执行:

复制代码
kubectl apply -f deployment.yaml -f service.yaml
  1. kubectl 将请求发送给 kube-apiserver
  2. APIServer 做认证、鉴权、校验配置合法性;
  3. 合法后将 Deployment、Service 资源信息持久化存入 etcd

步骤 6:Controller 控制器感知变化

kube-controller-manager 通过监听 APIServer,发现新增 Deployment 资源;控制器根据声明的副本数量,自动创建对应数量的 Pod 资源对象,写入 etcd。

步骤 7:kube-scheduler 调度 Pod

调度器监听 APIServer,发现有未绑定节点的新 Pod ;根据节点资源剩余、调度策略、亲和性规则,选出最合适的工作节点;将 Pod 与目标节点进行绑定,更新存入 etcd。

步骤 8:目标节点 kubelet 感知并创建容器

对应 Node 上的 kubelet 实时监听 APIServer;发现有分配给自己的 Pod 任务:

  1. 从镜像仓库拉取应用镜像
  2. 调用 containerd 容器运行时 创建并启动容器;
  3. 配置 Pod 网络(CNI 插件分配 IP);
  4. 启动后持续探测容器健康状态。

步骤 9:kube-proxy 配置网络规则

kube-proxy 监听 Service 和 Pod Endpoint 变化;在节点上自动生成 iptables/IPVS 转发规则,实现:

  • 集群内通过 Service 名称负载均衡访问 Pod;
  • 外部流量可通过 Service 节点端口 / Ingress 接入。

步骤 10:CoreDNS 域名解析生效

CoreDNS 自动感知 Service 资源,生成域名解析记录;集群内应用直接使用 服务名 即可互相调用,无需记 Pod IP。

步骤 11:应用正式部署完成、对外提供服务

整个流程结束:

  • 应用容器正常运行;
  • 集群内部可服务名访问;
  • 外部可通过 Ingress/Service 端口访问;
  • K8s 自动维持副本数、节点故障自动迁移、弹性扩缩容自动生效。

十、补充:整个流程核心原理一句话概括

用户通过 kubectl 下发配置 → APIServer 统一入口校验并存入 etcd → 控制器负责按声明创建 Pod → 调度器负责选节点 → 节点 kubelet 负责拉镜像启容器 → kube-proxy 负责网络负载均衡 → CoreDNS 负责服务域名解析,全程声明式配置、自动化调度、自愈运维

相关推荐
lpfasd1231 小时前
Docker Compose删除服务后,docker compose down无法关闭的问题解决
docker·容器·eureka
小新同学^O^2 小时前
简单学习 --> Docker容器
学习·docker·容器
阿里-于怀2 小时前
Nacos Skill Registry: 面向个人场景的Skill中心实践
阿里云·云原生·nacos·agent·skills
emiya_saber2 小时前
docker标签
运维·docker·容器
AI精钢2 小时前
AI 正在重构所有 App:要么消失,要么原生于智能体框架之上
人工智能·python·云原生·重构·aigc
墨倾许2 小时前
从零搭建运维学习环境(2026):WSL + Docker + Git + VS Code 完全指南
运维·git·学习·docker·容器·bash
岳来2 小时前
docker 容器重启策略RestartPolicy
运维·docker·容器·restartpolicy
明月_清风14 小时前
K8s 从入门到上手:核心概念+常用工具全解析
后端·kubernetes
阿里云云原生16 小时前
阿里云可观测 2026 年 4 月产品动态
云原生