K8S—Pod详解

目录

[一 Pod基础概念](#一 Pod基础概念)

[1.1 Pod是什么](#1.1 Pod是什么)

[1.2 为什么要使用Pod?Pod在K8S集群中的使用方式?](#1.2 为什么要使用Pod?Pod在K8S集群中的使用方式?)

[1.3 基础容器pause](#1.3 基础容器pause)

[二 Pod的分类](#二 Pod的分类)

[2.1 自主式Pod和控制器管理的Pod](#2.1 自主式Pod和控制器管理的Pod)

[2.2 容器的分类](#2.2 容器的分类)

[2.2.1 基础容器(infrastructure container)](#2.2.1 基础容器(infrastructure container))

[2.2.2 初始化容器(initcontainers)](#2.2.2 初始化容器(initcontainers))

[2.2.3 应用容器(Maincontainer)](#2.2.3 应用容器(Maincontainer))

[2.3 Pod容器案例](#2.3 Pod容器案例)

[三 镜像拉取策略](#三 镜像拉取策略)

[3.1 IfNotPresent](#3.1 IfNotPresent)

[3.2 Always](#3.2 Always)

[3.3 Never](#3.3 Never)

[3.4 示例](#3.4 示例)

[四 重启策略](#四 重启策略)

[4.1 Always](#4.1 Always)

[4.2 OnFailure](#4.2 OnFailure)

[4.3 Never](#4.3 Never)

[4.4 示例](#4.4 示例)

[五 Pod如何进行资源限制](#五 Pod如何进行资源限制)

[5.1 最常见的可设定资源---CPU](#5.1 最常见的可设定资源—CPU)

[5.2 最常见的可设定资源---内存](#5.2 最常见的可设定资源—内存)

[5.3 示例](#5.3 示例)

[六 探针](#六 探针)

[6.1 探针的三种规则](#6.1 探针的三种规则)

[6.2 Probe支持的三种检查方法](#6.2 Probe支持的三种检查方法)

[6.3 示例](#6.3 示例)

[6.3.1 exec方式](#6.3.1 exec方式)

[6.3.2 httpGet方式](#6.3.2 httpGet方式)

[6.3.3 tcpSocket方式](#6.3.3 tcpSocket方式)

[6.3.4 就绪检测](#6.3.4 就绪检测)

[七 Pod的生命周期](#七 Pod的生命周期)

[7.1 pod的生命周期](#7.1 pod的生命周期)

[7.2 数据流向](#7.2 数据流向)


一 Pod基础概念

1.1 Pod是什么

Pod是kubernetes中最小的资源管理组件,Pod也是最小化运行容器化应用的资源对象。一个Pod代表着集群中运行的一个进程。kubernetes中其他大多数组件都是围绕着Pod来进行支撑和扩展Pod功能的,例如,用于管理Pod运行的StatefulSet和Deployment等控制器对象,用于暴露Pod应用的Service和Ingress对象,为Pod提供存储的PersistentVolume存储资源对象等。

1.2 为什么要使用Pod?Pod在K8S集群中的使用方式?

现代容器技术建议一个容器只运行一个进程,该进程在容器中PID命令空间中的进程号为1,可直接接收并处理信号,进程终止时容器生命周期也就结束了。若想在容器内运行多个进程,需要有一个类似Linux操作系统init进程的管控类进程,以树状结构完成多进程的生命周期管理。运行于各自容器内的进程无法直接完成网络通信,这是由于容器间的隔离机制导致,k8s中的Pod资源抽象正是解决此类问题:

  • 多容器协同:有时候多个容器需要共享资源、网络空间等,这时候就可以将它们放在同一个 Pod 中,方便它们之间的协同工作。

  • **生命周期管理:**Pod 提供了统一的生命周期,当 Pod 中的所有容器都终止时,Pod 进程也将终止。这种生命周期的一致性有助于简化应用程序的管理。

  • 共享网络:Pod 内的容器共享相同的网络命名空间,它们可以通过 localhost 直接通信,无需额外的配置。

Pod在K8S集群中有两种使用方式:

  • 一个Pod中运行一个容器(最常见的用法):一个Pod下的容器必须运行于同一节点上。
  • 在一个Pod中同时运行多个容器:一个Pod中也可以同时封装几个需要紧密耦合互相协作的容器,它们之间共享资源。这些在同一个Pod中的容器可以互相协作成为一个service单位,比如一个容器共享文件,另一个"sidecar"容器来更新这些文件,Pod将这些容器的存储资源作为一个实体来管理。

1.3 基础容器pause

Pod资源中针对各容器提供网络命令空间等共享机制的是底层基础容器pause。

基础容器(也可称为父容器)pause为了管理Pod容器间的共享操作,需要能够准确地知道如何去创建共享运行环境的容器,还能管理这些容器的生命周期。

pause容器有两个核心的功能:

首先,它作为Pod中所有其他容器共享的基础容器,提供了整个Pod的Linux命名空间。这意味着所有其他容器将与"pause"容器共享网络和存储等资源。

其次,"pause"容器在每个Pod中充当PID为1的init进程,并负责管理该Pod中的所有其他容器的进程。它会启用PID命名空间,并处理僵尸进程的回收。这确保了在Pod中的各个容器正常启动和停止,并提供了更好的进程隔离。

pause容器使得Pod中的所有容器可以共享两种资源:

  • 网络:每个Pod都会被分配一个唯一的IP地址。Pod中的所有容器共享网络空间,包括IP地址和端口。Pod内部的容器可以使用localhost互相通信。Pod中的容器与外界通信时,必须分配共享网络资源(例如使用宿主机的端口映射)。
  • 存储:Pod可以指定多个共享的Volume。Pod中的所有容器都可以访问共享的Volume。Volume也可以用来持久化Pod中的存储资源,以防容器重启后文件丢失。

每个Pod都有一个特殊的被称为"基础容器"的Pause容器。Pause容器对应的镜像属于Kubernetes平台的一部分,除了Pause容器,每个Pod还包含一个或者多个紧密相关的用户应用容器。


二 Pod的分类

2.1 自主式Pod和控制器管理的Pod

  • 自主式Pod:通过手动创建 Pod 资源对象,将应用程序实例直接部署到 Kubernetes 集群中。这种方式不太灵活,因为 Pod 是直接部署到节点上的,一旦 Pod 所在的节点发生故障或者 Pod 本身出现问题,就需要手动介入来修复问题,这种Pod本身是不能自我修复的。
  • 控制器管理的Pod:通过 Kubernetes 中的 Controller 抽象层来管理的,可以提供副本管理、滚动升级和集群级别的自愈能力。Controller 能够自动地管理多个 Pod 实例,对节点故障进行自动调度,并具有自我修复的能力。

2.2 容器的分类

2.2.1 基础容器(infrastructure container)

基础容器提供了 Kubernetes 集群所需的基础设施服务,比如网络、存储、监控等。它们通常不直接参与应用程序的运行,而是为整个集群提供支持和服务。

①负责维护整个 Pod 网络和存储空间;

②node 节点中操作;

③启动一个Pod时,k8s会自动启动一个基础容器。

2.2.2 初始化容器(initcontainers)

初始化容器用于在主应用容器启动之前执行特定的初始化任务,例如加载配置、初始化数据库等。它们可以确保在主应用容器启动之前完成必要的准备工作,使得应用容器能够顺利启动和运行。

Init 容器与普通的容器非常像,除了以下两点:

●Init 容器总是运行到成功完成为止。

●每个 Init 容器都必须在下一个 Init 容器启动之前成功完成启动和退出。如果 Pod 的 Init 容器失败,K8S不断地重启该 Pod,直到 Init 容器成功为止。然而,如果 Pod 对应的重启策略(restartPolicy)为 Never,它不会重新启动。

Init 的容器作用:

因为init容器具有与应用容器分离的单独镜像,其启动相关代码具有如下优势:

●Init 容器可以包含一些安装过程中应用容器中不存在的实用工具或个性化代码。例如,没有必要仅为了在安装过程中使用类似 sed、 awk、 python 或 dig 这样的工具而去FROM 一个镜像来生成一个新的镜像。

●Init 容器可以安全地运行这些工具,避免这些工具导致应用镜像的安全性降低。

●应用镜像的创建者和部署者可以各自独立工作,而没有必要联合构建一个单独的应用镜像。

●Init 容器能以不同于Pod内应用容器的文件系统视图运行。因此,Init容器可具有访问 Secrets 的权限,而应用容器不能够访问。

●由于 Init 容器必须在应用容器启动之前运行完成,因此 Init 容器提供了一种机制来阻塞或延迟应用容器的启动,

直到满足了一组先决条件。一旦前置条件满足,Pod内的所有的应用容器会并行启动。

2.2.3 应用容器(Maincontainer)

应用容器是 Kubernetes Pod 中运行实际应用程序的容器,如 Web 服务器、后端服务、数据库等。它们是构成应用程序的核心组件,负责提供实际的业务功能。

2.3 Pod容器案例

kubectl describe pod myapp-pod

#查看容器日志内容

#创建一个名为myservice的 Service 并查看 K8S集群中的 Pod 和 Service 的状态。

vim myservice.yaml

apiVersion: v1
kind: Service
metadata:
  name: myservice
spec:
  ports:
  - protocol: TCP
    port: 80
    targetPort: 9376

kubectl create -f myservice.yaml

#获取当前 K8S 集群中所有 Service 的状态和信息。

#获取 K8S 集群中所有运行在kube-system命名空间下的 Pod 的状态和信息和获取集群中所有 Pod 的状态和信息

vim mydb.yaml

apiVersion: v1
kind: Service
metadata:
  name: mydb
spec:
  ports:
  - protocol: TCP
    port: 80
    targetPort: 9377

kubectl create -f mydb.yaml

kubectl get pods

注意

●在Pod启动过程中,Init容器会按顺序在网络和数据卷初始化之后启动。每个容器必须在下一个容器启动之前成功退出。

●如果由于运行时或失败退出,将导致容器启动失败,它会根据Pod的restartPolicy指定的策略进行重试。然而,如果Pod的restartPolicy设置为Always,Init容器失败时会使用RestartPolicy策略。

●在所有的Init容器没有成功之前,Pod将不会变成Ready状态。Init容器的端口将不会在Service中进行聚集。正在初始化中的Pod处于Pending状态,但应该会将Initializing状态设置为true。

●如果Pod重启,所有Init容器必须重新执行。

●对Init容器spec的修改被限制在容器image字段,修改其他字段都不会生效。更改Init容器的image字段,等价于重启该Pod。

●Init容器具有应用容器的所有字段。除了readinessProbe,因为Init容器无法定义不同于完成(completion)的就绪(readiness)之外的其他状态。这会在验证过程中强制执行。

●在Pod中的每个app和Init容器的名称必须唯一;与任何其它容器共享同一个名称,会在验证时抛出错误。


三 镜像拉取策略

镜像拉取策略是指在创建或更新容器时,决定是否从镜像仓库中拉取新的镜像。在 K8S 中,有三种常见的镜像拉取策略可以选择。

3.1 IfNotPresent

如果本地没有该镜像,则从镜像仓库中拉取镜像。如果本地已经存在该镜像,则直接使用本地镜像,不再拉取新的镜像。默认的镜像拉取策略。

3.2 Always

每次都从镜像仓库中拉取最新的镜像。无论本地是否已经存在该镜像,都会强制拉取最新的镜像。

3.3 Never

从不拉取镜像。只使用本地存在的镜像。如果本地不存在该镜像,则容器将无法启动。

注意:对于标签为":latest"的镜像文件,其默认的镜像获取策略即为"Always";而对于其他标签的镜像,其默认策略则为"IfNotPresent"。

nginx:latest

3.4 示例

#master01 上操作

kubectl edit deployment/nginx-deployment

创建测试案例

mkdir /opt/demo
cd /opt/demo

vim pod1.yaml

apiVersion: v1
kind: Pod
metadata:
  name: pod-test1
spec:
  containers:
    - name: nginx
      image: nginx
      imagePullPolicy: Always
      command: [ "echo", "SUCCESS" ]


kubectl create -f pod1.yaml

#此时 Pod 的状态异常,原因是 echo 执行完进程终止,容器生命周期也就结束了

#可以发现 Pod 中的容器在生命周期结束后,由于 Pod 的重启策略为 Always,容器再次重启了,并且又重新开始拉取镜像。

#修改 pod1.yaml 文件

cd /opt/demo
vim pod1.yaml
apiVersion: v1
kind: Pod
metadata:
  name: pod-test1
spec:
  containers:
    - name: nginx
      image: nginx:1.14							#修改 nginx 镜像版本
      imagePullPolicy: Always
      #command: [ "echo", "SUCCESS" ]			#删除

#删除原有的资源

kubectl delete -f pod1.yaml 

#更新资源

kubectl apply -f pod1.yaml 

查看 Pod 状态

#在任意 node 节点上使用 curl 查看头部信息


四 重启策略

重启策略是指在容器发生故障或终止时,Kubernetes 控制器将采取的措施。以下是三种常见的重启策略。

4.1 Always

默认策略,无论何时容器终止,Kubernetes 都会自动重启该容器。

确保容器始终处于运行状态,即使容器终止也会自动重启,适用于需要保持长时间运行的应用程序。

4.2 OnFailure

当容器异常退出(退出状态码非0)时,重启容器;正常退出则不重启容器。

4.3 Never

Kubernetes 不会自动重启容器,即使容器终止。

适用于一次性任务或者不希望容器终止后自动重启的场景,确保容器终止后不会重新启动。

这些重启策略可以在 Pod 的配置文件中通过**spec.restartPolicy**字段来指定。例如,你可以在 Pod 的配置中添加如下字段来设置重启策略:

spec:
  restartPolicy: Always

4.4 示例

vim pod3.yaml

apiVersion: v1
kind: Pod
metadata:
  name: foo
spec:
  containers:
  - name: busybox
    image: busybox
    args:
    - /bin/sh
    - -c
    - sleep 30; exit 3


kubectl apply -f pod3.yaml

#查看Pod状态,等容器启动后30秒后执行exit退出进程进入error状态,就会重启次数加1

kubectl delete -f pod3.yaml

vim pod3.yaml

apiVersion: v1
kind: Pod
metadata:
  name: foo
spec:
  containers:
  - name: busybox
    image: busybox
    args:
    - /bin/sh
    - -c
    - sleep 30; exit 3
  restartPolicy: Never

kubectl apply -f pod3.yaml

#容器进入error状态不会进行重启


五 Pod如何进行资源限制

当定义 Pod 时可以选择性地为每个容器设定所需要的资源数量。 最常见的可设定资源是 CPU 和内存大小,以及其他类型的资源。

当为 Pod 中的容器指定了 request 资源时,调度器就使用该信息来决定将 Pod 调度到哪个节点上。当还为容器指定了 limit 资源时,kubelet 就会确保运行的容器不会使用超出所设的 limit 资源量。kubelet 还会为容器预留所设的 request 资源量, 供该容器使用。

如果 Pod 运行所在的节点具有足够的可用资源,容器可以使用超出所设置的 request 资源量。不过,容器不可以使用超出所设置的 limit 资源量。

如果给容器设置了内存的 limit 值,但未设置内存的 request 值,Kubernetes 会自动为其设置与内存 limit 相匹配的 request 值。 类似的,如果给容器设置了 CPU 的 limit 值但未设置 CPU 的 request 值,则 Kubernetes 自动为其设置 CPU 的 request 值 并使之与 CPU 的 limit 值匹配。

Pod 和 容器 的资源请求和限制:

spec.containers[].resources.requests.cpu #定义创建容器时预分配的CPU资源

spec.containers[].resources.requests.memory #定义创建容器时预分配的内存资源

spec.containers[].resources.limits.cpu #定义 cpu 的资源上限

spec.containers[].resources.limits.memory #定义内存的资源上限

5.1 最常见的可设定资源---CPU

在 Kubernetes 中,CPU 资源的 request 和**limit**都以 CPU 核心(Core)或者毫核(MilliCore)为单位。一个 CPU 核心或者毫核在 Kubernetes 中通常被定义为等同于一个虚拟 CPU(vCPU),也可以理解为一个超线程。

因此,在 Kubernetes 中,一个 CPU 的定义相当于一个 vCPU 或一个超线程的计算能力。当你在 Pod 的配置中设置 CPU 资源时,可以使用整数值表示整个 CPU 核心,也可以使用小数或者毫核值来表示部分 CPU 核心的计算能力。

如果你在 Pod 的配置中设置了如下 CPU 请求和限制:

resources:
  requests:
    cpu: 0.5
  limits:
    cpu: 1

这个配置表示该容器请求了半个 CPU 核心的计算资源,并且限制了最大使用量为一个 CPU 核心。

注意:Kubernetes 不允许设置精度小于 1m 的 CPU 资源。

5.2 最常见的可设定资源---内存

内存的 request 和 limit 以字节为单位。可以以整数表示,或者以10为底数的指数的单位(E、P、T、G、M、K)来表示, 或者以2为底数的指数的单位(Ei、Pi、Ti、Gi、Mi、Ki)来表示。

如:1KB=10^3=1000,1MB=10^6=1000000=1000KB,1GB=10^9=1000000000=1000MB

1KiB=2^10=1024,1MiB=2^20=1048576=1024KiB

5.3 示例

vim pod2.yaml

apiVersion: v1
kind: Pod
metadata:
  name: frontend
spec:
  containers:
  - name: web
    image: nginx
    env:
    - name: WEB_ROOT_PASSWORD
      value: "password"
    resources:
      requests:
        memory: "64Mi"
        cpu: "250m"
      limits:
        memory: "128Mi"
        cpu: "500m"
  - name: db
    image: mysql
    env:
    - name: MYSQL_ROOT_PASSWORD
      value: "abc123"
    resources:
      requests:
        memory: "512Mi"
        cpu: "500m"
      limits:
        memory: "1Gi"
        cpu: "1"

kubectl apply -f pod2.yaml
kubectl describe pod frontend

kubectl get pods -o wide

kubectl describe nodes node01


六 探针

探针是由kubelet对容器执行的定期诊断。

6.1 探针的三种规则

livenessProbe判断容器是否正在运行。如果探测失败,则kubelet会杀死容器,并且容器将根据 restartPolicy 来设置 Pod 状态。 如果容器不提供存活探针,则默认状态为Success。

readinessProbe判断容器是否准备好接受请求。如果探测失败,端点控制器将从与 Pod 匹配的所有 service 址endpoints 中剔除删除该Pod的IP地。 初始延迟之前的就绪状态默认为Failure。如果容器不提供就绪探针,则默认状态为Success。

startupProbe (这个1.17版本增加的):判断容器内的应用程序是否已启动,主要针对于不能确定具体启动时间的应用 。如果配置了 startupProbe 探测,在则在 startupProbe 状态为 Success 之前,其他所有探针都处于无效状态,直到它成功后其他探针才起作用。 如果 startupProbe 失败,kubelet 将杀死容器,容器将根据 restartPolicy 来重启。如果容器没有配置 startupProbe, 则默认状态为 Success。
注意:以上规则可以同时定义。在readinessProbe检测成功之前,Pod的running状态是不会变成ready状态的。

6.2 Probe支持的三种检查方法

exec :在容器内执行指定命令。如果命令退出时返回码为0则认为诊断成功。

tcpSocket:对指定端口上的容器的IP地址进行TCP检查(三次握手)。如果端口打开,则诊断被认为是成功的。

httpGet :对指定的端口和路径上的容器的IP地址执行HTTPGet请求。如果响应的状态码大于等于200且小于400,则诊断被认为是成功的。

每次探测都将获得以下三种结果之一:

●成功:容器通过了诊断。

●失败:容器未通过诊断。

●未知:诊断失败,因此不会采取任何行动。

6.3 示例

6.3.1 exec方式

apiVersion: v1
kind: Pod
metadata:
  labels:
    test: liveness
  name: liveness-exec
spec:
  containers:
  - name: liveness
    image: k8s.gcr.io/busybox
    args:  
    - /bin/sh
    - -c
    - touch /tmp/healthy; sleep 30; rm -rf /tmp/healthy; sleep 60
    livenessProbe:
      exec:
        command:
        - cat
        - /tmp/healthy
      failureThreshold: 1 
      initialDelaySeconds: 5
      periodSeconds: 5
  • initialDelaySeconds:指定 kubelet 在执行第一次探测前应该等待5秒,即第一次探测是在容器启动后的第6秒才开始执行。默认是 0 秒,最小值是 0。
  • periodSeconds:指定了 kubelet 应该每 5 秒执行一次存活探测。默认是 10 秒。最小值是 1。
  • failureThreshold: 当探测失败时,Kubernetes 将在放弃之前重试的次数。 存活探测情况下的放弃就意味着重新启动容器。就绪探测情况下的放弃 Pod 会被打上未就绪的标签。默认值是 3。最小值是 1。
  • timeoutSeconds:探测的超时后等待多少秒。默认值是 1 秒。最小值是 1。(在 Kubernetes 1.20 版本之前,exec 探针会忽略 timeoutSeconds 探针会无限期地 持续运行,甚至可能超过所配置的限期,直到返回结果为止。)

可以看到 Pod 中只有一个容器。kubelet 在执行第一次探测前需要等待 5 秒,kubelet 会每 5 秒执行一次存活探测。kubelet 在容器内执行命令 cat /tmp/healthy 来进行探测。如果命令执行成功并且返回值为 0,kubelet 就会认为这个容器是健康存活的。 当到达第 31 秒时,这个命令返回非 0 值,kubelet 会杀死这个容器并重新启动它。

vim exec.yaml

apiVersion: v1
kind: Pod
metadata:
  name: liveness-exec
  namespace: default
spec:
  containers:
  - name: liveness-exec-container
    image: busybox
    imagePullPolicy: IfNotPresent
    command: ["/bin/sh","-c","touch /tmp/live ; sleep 30; rm -rf /tmp/live; sleep 3600"]
    livenessProbe:
      exec:
        command: ["test","-e","/tmp/live"]
      initialDelaySeconds: 1
      periodSeconds: 3
	  
kubectl create -f exec.yaml

kubectl get pods -w

6.3.2 httpGet方式

apiVersion: v1
kind: Pod
metadata:
  labels:
    test: liveness
  name: liveness-http
spec:
  containers:
  - name: liveness
    image: k8s.gcr.io/liveness
    args:
    - /server
    livenessProbe:
      httpGet:
        path: /healthz
        port: 8080
        httpHeaders:
        - name: Custom-Header
          value: Awesome
      initialDelaySeconds: 3
      periodSeconds: 3

在这个配置文件中,可以看到 Pod 也只有一个容器。initialDelaySeconds 字段告诉 kubelet 在执行第一次探测前应该等待 3 秒。periodSeconds 字段指定了 kubelet 每隔 3 秒执行一次存活探测。kubelet 会向容器内运行的服务(服务会监听 8080 端口)发送一个 HTTP GET 请求来执行探测。如果服务器上 /healthz 路径下的处理程序返回成功代码,则 kubelet 认为容器是健康存活的。如果处理程序返回失败代码,则 kubelet 会杀死这个容器并且重新启动它。

任何大于或等于 200 并且小于 400 的返回代码标示成功,其它返回代码都标示失败。

vim httpget.yaml

apiVersion: v1
kind: Pod
metadata:
  name: liveness-httpget
  namespace: default
spec:
  containers:
  - name: liveness-httpget-container
    image: soscscs/myapp:v1
    imagePullPolicy: IfNotPresent
    ports:
    - name: http
      containerPort: 80
    livenessProbe:
      httpGet:
        port: http
        path: /index.html
      initialDelaySeconds: 1
      periodSeconds: 3
      timeoutSeconds: 10
	  
kubectl create -f httpget.yaml

kubectl create -f httpget.yaml

kubectl exec -it liveness-httpget -- rm -rf /usr/share/nginx/html/index.html

6.3.3 tcpSocket方式

apiVersion: v1
kind: Pod
metadata:
  name: goproxy
  labels:
    app: goproxy
spec:
  containers:
  - name: goproxy
    image: k8s.gcr.io/goproxy:0.1
    ports:
    - containerPort: 8080
    readinessProbe:
      tcpSocket:
        port: 8080
      initialDelaySeconds: 5
      periodSeconds: 10
    livenessProbe:
      tcpSocket:
        port: 8080
      initialDelaySeconds: 15
      periodSeconds: 20

这个例子同时使用 readinessProbe 和 livenessProbe 探测。kubelet 会在容器启动 5 秒后发送第一个 readinessProbe 探测。这会尝试连接 goproxy 容器的 8080 端口。如果探测成功,kubelet 将继续每隔 10 秒运行一次检测。除了 readinessProbe 探测,这个配置包括了一个 livenessProbe 探测。kubelet 会在容器启动 15 秒后进行第一次 livenessProbe 探测。就像 readinessProbe 探测一样,会尝试连接 goproxy 容器的 8080 端口。如果 livenessProbe 探测失败,这个容器会被重新启动。

vim tcpsocket.yaml

apiVersion: v1
kind: Pod
metadata:
  name: probe-tcp
spec:
  containers:
  - name: nginx
    image: soscscs/myapp:v1
    livenessProbe:
      initialDelaySeconds: 5
      timeoutSeconds: 1
      tcpSocket:
        port: 8080
      periodSeconds: 10
      failureThreshold: 2

kubectl create -f tcpsocket.yaml
kubectl get pods -w
NAME        READY   STATUS    RESTARTS   AGE
probe-tcp   1/1     Running             0          1s
probe-tcp   1/1     Running             1          25s       #第一次是 init(5秒) + period(10秒) * 2
probe-tcp   1/1     Running             2          45s       #第二次是 period(10秒) + period(10秒)  重试了两次
probe-tcp   1/1     Running             3          65s

6.3.4 就绪检测

vim readiness-httpget.yaml

apiVersion: v1
kind: Pod
metadata:
  name: readiness-httpget
  namespace: default
spec:
  containers:
  - name: readiness-httpget-container
    image: soscscs/myapp:v1
    imagePullPolicy: IfNotPresent
    ports:
    - name: http
      containerPort: 80
    readinessProbe:
      httpGet:
        port: 80
        path: /index1.html
      initialDelaySeconds: 1
      periodSeconds: 3
    livenessProbe:
      httpGet:
        port: http
        path: /index.html
      initialDelaySeconds: 1
      periodSeconds: 3
      timeoutSeconds: 10

kubectl create -f readiness-httpget.yaml

#readiness探测失败,无法进入READY状态

kubectl get pods 
NAME                READY   STATUS    RESTARTS   AGE
readiness-httpget   0/1     Running   0          20s

kubectl get pods

kubectl get pods -w
NAME                READY   STATUS    RESTARTS   AGE
readiness-httpget   1/1     Running   0          4m10s
readiness-httpget   0/1     Running   1          4m15s

七 Pod的生命周期

7.1 pod的生命周期

  • Pause(父容器):主要作用是为了管理所有组件的生命周期。它负责启动和终止整个容器组。

  • Init(初始化容器):Init 容器用于提供应用容器所需的依赖环境。它会在应用容器启动之前运行,并且应用容器需要等待所有的初始化容器启动完成且退出后才会启动。

  • Main(应用容器):Main 容器是应用程序的主要运行容器。它在初始化容器运行完成后才开始运行,负责整个应用程序的启动。

  • Startup(启动探针):启动探针用于检测应用容器是否已经启动完成。它会判断应用容器是否已经准备好接收外部请求。

  • Readiness(就绪探针):用于判断应用容器是否已经准备好接收对外的分发请求。如果就绪探针检测失败,通常会导致容器被标记为不可用,并触发重启策略,但不会直接杀死应用容器。此外,若应用容器持续无法通过就绪探针检测,则系统可能会将该容器从服务端点中移除,以确保不会向其发送流量。

  • Liveness(存活探针):存活探针用于检测应用容器是否仍然在正常运行。如果存活探针失败,则会认为应用容器不可用,并触发重启策略。

7.2 数据流向

  • 发送指令进行容器初始化。
  • 初始化容器(Init)逐个启动,直到所有初始化容器成功启动。
  • 启动探针(Startup)检测应用容器是否已经启动完成。
  • 应用容器(Main)并行启动。
  • 就绪探针(Readiness)检测应用容器是否准备好接收请求。
  • 存活探针(Liveness)检测应用容器是否正常运行。
  • 如果需要关闭容器,则启动停止指令(Stop)。
相关推荐
全能全知者18 分钟前
docker快速安装与配置mongoDB
mongodb·docker·容器
为什么这亚子2 小时前
九、Go语言快速入门之map
运维·开发语言·后端·算法·云原生·golang·云计算
ZHOU西口4 小时前
微服务实战系列之玩转Docker(十八)
分布式·docker·云原生·架构·数据安全·etcd·rbac
牛角上的男孩4 小时前
Istio Gateway发布服务
云原生·gateway·istio
JuiceFS6 小时前
好未来:多云环境下基于 JuiceFS 建设低运维模型仓库
运维·云原生
景天科技苑6 小时前
【云原生开发】K8S多集群资源管理平台架构设计
云原生·容器·kubernetes·k8s·云原生开发·k8s管理系统
wclass-zhengge7 小时前
K8S篇(基本介绍)
云原生·容器·kubernetes
颜淡慕潇7 小时前
【K8S问题系列 |1 】Kubernetes 中 NodePort 类型的 Service 无法访问【已解决】
后端·云原生·容器·kubernetes·问题解决
川石课堂软件测试9 小时前
性能测试|docker容器下搭建JMeter+Grafana+Influxdb监控可视化平台
运维·javascript·深度学习·jmeter·docker·容器·grafana
昌sit!15 小时前
K8S node节点没有相应的pod镜像运行故障处理办法
云原生·容器·kubernetes