面试题整理9----谈谈对k8s的理解1

谈谈对k8s的理解

1. Kubernetes 概念

1.1 Kubernetes是什么

Kubernetes 是一个可移植、可扩展的开源平台,用于管理容器化的工作负载和服务,方便进行声明式配置和自动化。Kubernetes 拥有一个庞大且快速增长的生态系统,其服务、支持和工具的使用范围广泛。

Kubernetes 这个名字源于希腊语,意为"舵手"或"飞行员"。K8s 这个缩写是因为 K 和 s 之间有 8 个字符的关系。 Google 在 2014 年开源了 Kubernetes 项目。 Kubernetes 建立在 Google 大规模运行生产工作负载十几年经验的基础上, 结合了社区中最优秀的想法和实践。

Kubernetes提供了:

  • 服务发现和负载均衡

    Kubernetes 可以使用 DNS 名称或自己的 IP 地址来暴露容器。 如果进入容器的流量很大, Kubernetes 可以负载均衡并分配网络流量,从而使部署稳定。

  • 存储编排

    Kubernetes 允许你自动挂载你选择的存储系统,例如本地存储、公共云提供商等。

  • 自动部署和回滚

    你可以使用 Kubernetes 描述已部署容器的所需状态, 它可以以受控的速率将实际状态更改为期望状态。 例如,你可以自动化 Kubernetes 来为你的部署创建新容器, 删除现有容器并将它们的所有资源用于新容器。

  • 自动完成装箱计算

    你为 Kubernetes 提供许多节点组成的集群,在这个集群上运行容器化的任务。 你告诉 Kubernetes 每个容器需要多少 CPU 和内存 (RAM)。 Kubernetes 可以将这些容器按实际情况调度到你的节点上,以最佳方式利用你的资源。

  • 自我修复

    Kubernetes 将重新启动失败的容器、替换容器、杀死不响应用户定义的运行状况检查的容器, 并且在准备好服务之前不将其通告给客户端。

  • 密钥与配置管理

    Kubernetes 允许你存储和管理敏感信息,例如密码、OAuth 令牌和 SSH 密钥。 你可以在不重建容器镜像的情况下部署和更新密钥和应用程序配置,也无需在堆栈配置中暴露密钥。

  • 批处理执行 除了服务外,Kubernetes 还可以管理你的批处理和 CI(持续集成)工作负载,如有需要,可以替换失败的容器。

  • 水平扩缩 使用简单的命令、用户界面或根据 CPU 使用率自动对你的应用进行扩缩。

  • IPv4/IPv6 双栈 为 Pod(容器组)和 Service(服务)分配 IPv4 和 IPv6 地址。

  • 为可扩展性设计 在不改变上游源代码的情况下为你的 Kubernetes 集群添加功能。

1.2 Kubernetes的组成

1.1.1 K8s 控制平面组件(Control Plane Components)

控制平面组件会为集群做出全局决策,比如资源的调度。 以及检测和响应集群事件,例如当不满足 Deployment 的 replicas 字段时,要启动新的 Pod)。

控制平面组件可以在集群中的任何节点上运行。 然而,为了简单起见,安装脚本通常会在同一个计算机上启动所有控制平面组件, 并且不会在此计算机上运行用户容器。

管理集群的整体状态:

  • kube-apiserver

    API 服务器是 Kubernetes 控制平面的组件, 该组件负责公开了 Kubernetes API,负责处理接受请求的工作。 API 服务器是 Kubernetes 控制平面的前端。

    Kubernetes API 服务器的主要实现是 kube-apiserver。 kube-apiserver 设计上考虑了水平扩缩,也就是说,它可通过部署多个实例来进行扩缩。 你可以运行 kube-apiserver 的多个实例,并在这些实例之间平衡流量。

  • etcd

    具备一致性和高可用性的键值存储,用于所有 API 服务器的数据存储

  • kube-scheduler

    kube-scheduler 是控制平面的组件, 负责监视新创建的、未指定运行节点(node)的 Pods, 并选择节点来让 Pod 在上面运行。

    调度决策考虑的因素包括单个 Pod 及 Pods 集合的资源需求、软硬件及策略约束、 亲和性及反亲和性规范、数据位置、工作负载间的干扰及最后时限。

  • kube-controller-manager

    kube-controller-manager 是控制平面的组件, 负责运行控制器进程。

    从逻辑上讲, 每个控制器都是一个单独的进程, 但是为了降低复杂性,它们都被编译到同一个可执行文件,并在同一个进程中运行。

    控制器有许多不同类型。以下是一些例子:

    • Node 控制器:负责在节点出现故障时进行通知和响应。
    • Job 控制器:监测代表一次性任务的 Job 对象,然后创建 Pod 来运行这些任务直至完成。
    • EndpointSlice 控制器:填充 EndpointSlice 对象(以提供 Service 和 Pod 之间的链接)。
    • ServiceAccount 控制器:为新的命名空间创建默认的 ServiceAccount。
  • cloud-controller-manager (optional)

    cloud-controller-manager是控制平面组件, 嵌入了特定于云平台的控制逻辑。 云控制器管理器(Cloud Controller Manager)允许将你的集群连接到云提供商的 API 之上, 并将与该云平台交互的组件同与你的集群交互的组件分离开来。

    cloud-controller-manager 仅运行特定于云平台的控制器。 因此如果你在自己的环境中运行 Kubernetes,或者在本地计算机中运行学习环境, 所部署的集群不包含云控制器管理器。

    与 kube-controller-manager 类似,cloud-controller-manager 将若干逻辑上独立的控制回路组合到同一个可执行文件中,以同一进程的方式供你运行。 你可以对其执行水平扩容(运行不止一个副本)以提升性能或者增强容错能力。

    下面的控制器都包含对云平台驱动的依赖:

    • Node 控制器:用于在节点终止响应后检查云平台以确定节点是否已被删除
    • Route 控制器:用于在底层云基础架构中设置路由
    • Service 控制器:用于创建、更新和删除云平台上的负载均衡器

1.1.2 Node 组件

在每个节点上运行,维护运行的 Pod 并提供 Kubernetes 运行时环境:

  • kubelet

    kubelet 会在集群中每个节点(node)上运行。 它保证容器(containers)都运行在 Pod 中。

    kubelet 接收一组通过各类机制提供给它的 PodSpec,确保这些 PodSpec 中描述的容器处于运行状态且健康。 kubelet 不会管理不是由 Kubernetes 创建的容器。

  • kube-proxy(可选)

    kube-proxy 是集群中每个节点(node)上所运行的网络代理, 实现 Kubernetes 服务(Service) 概念的一部分。

    kube-proxy 维护节点上的一些网络规则, 这些网络规则会允许从集群内部或外部的网络会话与 Pod 进行网络通信。

    如果操作系统提供了可用的数据包过滤层,则 kube-proxy 会通过它来实现网络规则。 否则,kube-proxy 仅做流量转发。

    如果你使用网络插件为 Service 实现本身的数据包转发, 并提供与 kube-proxy 等效的行为,那么你不需要在集群中的节点上运行 kube-proxy。

  • 容器运行时(Container runtime)

    这个基础组件使 Kubernetes 能够有效运行容器。 它负责管理 Kubernetes 环境中容器的执行和生命周期。

    Kubernetes 支持许多容器运行环境,例如 containerd、 CRI-O 以及 Kubernetes CRI (容器运行环境接口) 的其他任何实现。

1.1.3 插件(Addons)

  • 插件使用 Kubernetes 资源(DaemonSet、 Deployment 等)实现集群功能。 因为这些插件提供集群级别的功能,插件中命名空间域的资源属于 kube-system 命名空间。
    下面描述众多插件中的几种。有关可用插件的完整列表, 请参见插件(Addons)。
    • DNS
      尽管其他插件都并非严格意义上的必需组件,但几乎所有 Kubernetes 集群都应该有集群 DNS, 因为很多示例都需要 DNS 服务。
      集群 DNS 是一个 DNS 服务器,和环境中的其他 DNS 服务器一起工作,它为 Kubernetes 服务提供 DNS 记录。
      Kubernetes 启动的容器自动将此 DNS 服务器包含在其 DNS 搜索列表中。
    • Web 界面 (仪表盘)
      Dashboard 是 Kubernetes 集群的通用的、基于 Web 的用户界面。 它使用户可以管理集群中运行的应用程序以及集群本身,并进行故障排除。
    • 容器资源监控
      容器资源监控 将关于容器的一些常见的时序度量值保存到一个集中的数据库中,并提供浏览这些数据的界面。
    • 集群层面日志
      集群层面日志机制负责将容器的日志数据保存到一个集中的日志存储中, 这种集中日志存储提供搜索和浏览接口。
    • 网络插件
      网络插件 是实现容器网络接口(CNI)规范的软件组件。它们负责为 Pod 分配 IP 地址,并使这些 Pod 能在集群内部相互通信。

2. k8s 常用部署方式

K8s常见的部署方式有:

  • kubeadmin
  • Kind
  • minikube
  • Ansible/Shell 脚本
  • 二进制安装
  • 其他开源部署工具(Kubesphere,Kubeasz等)

3. K8s应用部署与其他方式应用部署的区别

传统部署时代:

早期,各个组织是在物理服务器上运行应用程序。 由于无法限制在物理服务器中运行的应用程序资源使用,因此会导致资源分配问题。 例如,如果在同一台物理服务器上运行多个应用程序, 则可能会出现一个应用程序占用大部分资源的情况,而导致其他应用程序的性能下降。 一种解决方案是将每个应用程序都运行在不同的物理服务器上, 但是当某个应用程序资源利用率不高时,剩余资源无法被分配给其他应用程序, 而且维护许多物理服务器的成本很高。

虚拟化部署时代:

因此,虚拟化技术被引入了。虚拟化技术允许你在单个物理服务器的 CPU 上运行多台虚拟机(VM)。 虚拟化能使应用程序在不同 VM 之间被彼此隔离,且能提供一定程度的安全性, 因为一个应用程序的信息不能被另一应用程序随意访问。

虚拟化技术能够更好地利用物理服务器的资源,并且因为可轻松地添加或更新应用程序, 而因此可以具有更高的可扩缩性,以及降低硬件成本等等的好处。 通过虚拟化,你可以将一组物理资源呈现为可丢弃的虚拟机集群。

每个 VM 是一台完整的计算机,在虚拟化硬件之上运行所有组件,包括其自己的操作系统。

容器部署时代:

容器类似于 VM,但是更宽松的隔离特性,使容器之间可以共享操作系统(OS)。 因此,容器比起 VM 被认为是更轻量级的。且与 VM 类似,每个容器都具有自己的文件系统、CPU、内存、进程空间等。 由于它们与基础架构分离,因此可以跨云和 OS 发行版本进行移植。

容器因具有许多优势而变得流行起来,例如:

  • 敏捷应用程序的创建和部署:与使用 VM 镜像相比,提高了容器镜像创建的简便性和效率。

  • 持续开发、集成和部署:通过快速简单的回滚(由于镜像不可变性), 提供可靠且频繁的容器镜像构建和部署。

  • 关注开发与运维的分离:在构建、发布时创建应用程序容器镜像,而不是在部署时, 从而将应用程序与基础架构分离。

  • 可观察性:不仅可以显示 OS 级别的信息和指标,还可以显示应用程序的运行状况和其他指标信号。

  • 跨开发、测试和生产的环境一致性:在笔记本计算机上也可以和在云中运行一样的应用程序。

  • 跨云和操作系统发行版本的可移植性:可在 Ubuntu、RHEL、CoreOS、本地、 Google Kubernetes Engine 和其他任何地方运行。

  • 以应用程序为中心的管理:提高抽象级别,从在虚拟硬件上运行 OS 到使用逻辑资源在 OS 上运行应用程序。

  • 松散耦合、分布式、弹性、解放的微服务:应用程序被分解成较小的独立部分, 并且可以动态部署和管理 - 而不是在一台大型单机上整体运行。

  • 资源隔离:可预测的应用程序性能。

  • 资源利用:高效率和高密度

4. K8s工作负载

4.1 Pod ☆

Pod 是可以在主机上运行的容器的集合。

Pod 是 Kubernetes 中最小的可部署和管理的单元,在一个pod里可以有至少1个或多个容器,它是一组紧密关联的容器的集合,共享网络和存储资源。 同一个Pod中不同的容器称为Sidecar,常见的有istio的envoy。

Sidecar 容器的作用

  • 日志收集:Sidecar 容器可以负责收集主容器的日志,并将其发送到中央日志系统。
  • 监控和指标收集:Sidecar 容器可以运行监控代理,如 Prometheus 的 exporter,来收集主应用容器的性能指标和监控数据。
  • 安全增强:通过定义 Sidecar,可以添加安全相关的功能,如身份验证、访问控制等,提升应用的安全性。
  • 服务网格集成:Sidecar 容器是服务网格实现(如 Istio 或 Linkerd)的重要组成部分,处理服务之间的流量管理、负载平衡、熔断和安全通信。

Sidecar 容器与主容器的关系

  • 共享资源:Sidecar 容器与主容器共享相同的网络命名空间和存储卷,可以相互通信并共享数据。

  • 独立运行

    :Sidecar 容器与主容器独立运行,但它们的生命周期是关联的,即主容器停止时,Sidecar 容器通常也会停止。

Sidecar 容器的优势

  • 模块化:Sidecar 容器为微服务架构提供了一种模块化和解耦的方法,使得主应用程序容器可以专注于其核心职责。
  • 代码可重用性:Sidecar 容器促进跨多个微服务的代码可重用性,减少了重复工作。
  • 改进的可观察性:Sidecar 容器增强了 pod 内的可观察性,使得主容器的行为和性能更容易被深入了解。
  • 独立的可扩展性:Sidecar 容器为微服务的不同组件提供独立的可扩展性,可以根据每个功能的特定需求有效地分配资源

应用场景

  • 日志收集器(如 Fluentd、Filebeat)
  • 监控代理(如 Prometheus Node Exporter)
  • 网络插件(如 Calico、Weave)
  • 存储插件或其他需要在每个节点上运行的守护进程

4.2 Binding

Binding 将一个对象与另一个对象绑定起来;例如,调度程序将一个 Pod 绑定到一个节点。

4.2.1 Binding 与 Affinity异同

Binding

定义:Binding 是 Kubernetes 中的一种资源调度策略,它通过将 Pod 绑定到特定的节点上,确保 Pod 运行在指定的节点上。

作用:Binding 提供了一种强制性的调度方式,通过在 Pod 的配置中指定 spec.nodeName,可以确保 Pod 被调度到指定的节点上,而不经过调度器的默认调度逻辑。

使用场景:当需要确保某个 Pod 运行在具有特定配置或资源的节点上时,可以使用 Binding。
亲和(Affinity)

定义:亲和是 Kubernetes 中的一种资源调度策略,它允许 Pod 指定对节点的偏好,或者根据其他 Pod 的运行位置来选择调度位置。

作用:亲和性通过节点亲和性(Node Affinity)和 Pod 亲和性(Pod Affinity)来实现,帮助优化集群的性能和资源利用率。

节点亲和性:允许 Pod 指定对节点的偏好,例如,可以指定 Pod 只调度到具有特定标签的节点上。

Pod 亲和性:允许 Pod 根据其他 Pod 的运行位置来选择调度位置,或者避免与某些 Pod 运行在同一个节点上。

使用场景:当需要根据节点的标签或其他 Pod 的位置来优化 Pod 的调度时,可以使用亲和性。
Binding 和亲和的关系
区别:

Binding 是一种强制性的调度方式,通过 spec.nodeName 直接指定 Pod 运行的节点,不经过调度器的默认调度逻辑。

亲和 是一种灵活的调度策略,通过节点亲和性和 Pod 亲和性规则,优化 Pod 的调度,但不具有强制性。
联系:

两者都是用于控制 Pod 的调度位置,但 Binding 更具强制性,而亲和性则提供了更多的灵活性和优化选项。

4.3 PodTemplate

PodTemplate 描述一种模板,用来为预定义的 Pod 生成副本。

4.4 ReplicaSet ☆

ReplicaSet 确保在任何给定的时刻都在运行指定数量的 Pod 副本。

ReplicaSet 通过标签选择器(label selector)来追踪和控制具有特定标签的 Pod 实例数量,确保集群中运行的 Pod 副本数量符合预设值。

4.5 Deployment ☆

Deployment 使得 Pod 和 ReplicaSet 能够进行声明式更新。无状态

4.6 StatefulSet ☆

StatefulSet 表示一组具有一致身份的 Pod. 有状态

4.7 DaemonSet ☆

DaemonSet 表示守护进程集的配置。简单的说就是每个node上都运行至少1个副本

它确保所有(或某些)节点上均运行同一个 Pod 副本。当有节点加入集群时,DaemonSet 控制器会自动在新加入节点上创建 Pod 副本;当有节点从集群移除时,这些节点上的 Pod 副本也会被回收。

4.7.1 ReplicaSet,Deployment,Daemonset,statfulset 区别

ReplicaSet、Deployment、DaemonSet 和 StatefulSet 是 Kubernetes 中用于管理不同类型应用的四种控制器。每种控制器都有其特定的用途和适用场景。以下是它们的主要区别:

1. ReplicaSet

  • 目的:确保指定数量的 Pod 副本在集群中持续运行。
  • 特点
    • 通过标签选择器来追踪和管理 Pod。
    • 自动监控 Pod 的状态,并在 Pod 失效时创建新的 Pod。
    • 不提供高级部署策略,如滚动更新和回滚。
  • 适用场景:适用于需要简单副本管理的应用,如 Web 服务器。

2. Deployment

  • 目的:管理应用的部署和更新,提供高级部署策略。
  • 特点
    • 基于 ReplicaSet,管理多个 ReplicaSet 实例。
    • 提供声明式更新、滚动更新和回滚功能。
    • 支持版本控制和回滚到之前的稳定版本。
  • 适用场景:适用于需要高级部署策略的应用,如 Web 应用、API 服务等。

3. DaemonSet

  • 目的:确保每个节点上都运行一个 Pod 副本。
  • 特点
    • 通过节点选择器来决定在哪些节点上运行 Pod。
    • 每个节点上运行一个 Pod 副本,适用于需要在每个节点上运行的服务。
    • 支持滚动更新。
  • 适用场景:适用于需要在每个节点上运行的服务,如日志收集器、监控代理等。

4. StatefulSet

  • 目的:管理有状态应用的部署和扩展。
  • 特点
    • 提供稳定的网络标识和持久化存储。
    • 按顺序创建和删除 Pod,确保数据的一致性。
    • 支持滚动更新,但更新过程中保持稳定的网络标识和存储。
  • 适用场景:适用于有状态应用,如数据库、消息队列等。

总结

  • ReplicaSet:适用于需要简单副本管理的应用。
  • Deployment:适用于需要高级部署策略的应用。
  • DaemonSet:适用于需要在每个节点上运行的服务。
  • StatefulSet:适用于有状态应用,需要稳定的网络标识和持久化存储。

通过选择合适的控制器,可以更好地满足不同类型应用的需求,提高 Kubernetes 集群的灵活性和可管理性。

4.8 ReplicationController

ReplicationController 表示一个副本控制器的配置。

4.9 ControllerRevision

ControllerRevision 实现了状态数据的不可变快照。

4.9 Job

Job 表示单个任务的配置。

4.10 CronJob

CronJob 代表单个定时作业 (Cron Job) 的配置。

4.11 HorizontalPodAutoscaler

水平 Pod 自动缩放器的配置。

4.12 HorizontalPodAutoscaler

HorizontalPodAutoscaler 是水平 Pod 自动扩缩器的配置,它根据指定的指标自动管理实现 scale 子资源的任何资源的副本数。

4.13 PriorityClass

PriorityClass 定义了从优先级类名到优先级数值的映射。

相关推荐
恋喵大鲤鱼2 小时前
微服务设计原则——功能设计
微服务·云原生·架构
China_Yanhy2 小时前
[k8s]报错:Cannot connect to the Docker daemon at unix:///var/run/docker.sock
docker·kubernetes·unix
码农秃头老李3 小时前
系列1:基于Centos-8.6部署Kubernetes (1.24-1.30)
linux·kubernetes·centos
魏 无羡3 小时前
linux CentOS系统上卸载Kubernetes(k8s)
linux·kubernetes·centos
勇-子4 小时前
K8s中 statefulset 和deployment的区别
云原生·容器·kubernetes
dawnsky.liu7 小时前
OpenShift 4 - 多云管理(2) - 配置多集群观察功能
云原生·kubernetes·openshift·多云管理
saynaihe8 小时前
Docker 容器网络问题排查与最佳实践 - PushGateway 部署案例分析
运维·网络·docker·云原生·容器
Karoku0669 小时前
【k8s集群应用】K8S二进制安装大致步骤(简略版)
运维·服务器·数据库·云原生·容器·kubernetes
007php0079 小时前
k8s服务搭建与实战案例
linux·运维·服务器·云原生·容器·golang·kubernetes
优质&青年12 小时前
【故障处理系列--gitlab的CI流水线下载安装包提示报错】
linux·运维·ci/cd·云原生·容器·gitlab