目录
一、pod的基础概念
什么是pod?
Pod是kubernetes中最小的资源管理组件,Pod也是最小化运行容器化应用的资源对象。一个Pod代表着集群中运行的一个进程。
kubernetes中其他大多数组件都是围绕着Pod来进行支撑和扩展Pod功能的。
例如,++用于管理Pod运行的StatefulSet和Deployment等控制器对象,用于暴露Pod应用的Service和Ingress对象,为Pod提供存储的PersistentVolume存储资源对象等++。
k8s集群中pod的两种使用方式
①一个Pod中运行一个容器。"每个Pod中一个容器"的模式是最常见的用法;在这种使用方式中,你可以把Pod想象成是单个容器的封装,kuberentes管理的是Pod而不是直接管理容器。
②在一个Pod中同时运行多个容器。一个Pod中也可以同时封装几个需要紧密耦合互相协作的容器,它们之间共享资源。这些在同一个Pod中的容器可以互相协作成为一个service单位,比如一个容器共享文件,另一个"sidecar"容器来更新这些文件。Pod将这些容器的存储资源作为一个实体来管理。
举例:sidecar如用于收集日志的filebeat 或者收集监控数据zabbix agent的容器
pod中运行容器的原则:
①一个pod下的容器必须运行在同一个node节点中。
②现代容器技术建议一个容器只运行一个进程,该进程在容器中PID命名空间中的进程号为1,可直接接收并处理信号,进程终止时容器生命周期也就结束了。若想在容器内运行多个进程,需要有一个类似Linux操作系统init进程的管控类进程,以树状结构完成多进程的生命周期管理。运行于各自容器内的进程无法直接完成网络通信,这是由于容器间的隔离机制导致,k8s中的Pod资源抽象正是解决此类问题,Pod对象是一组容器的集合,这些容器共享NET、MNT、UTS及IPC命名空间,因此具有相同的域名、主机名和网络接口,并可通过IPC直接通信。
**③Pod资源中针对各容器提供网络命名空间等共享机制的是底层基础容器pause,基础容器(也可称为父容器)**pause就是为了管理Pod容器间的共享操作,这个父容器需要能够准确地知道如何去创建共享运行环境的容器,还能管理这些容器的生命周期。为了实现这个父容器的构想,kubernetes中,用pause容器来作为一个Pod中所有容器的父容器。
pause容器有两个核心的功能:
**一是它提供整个Pod的Linux命名空间的基础(**共享NET、MNT、UTS及IPC、PID命名空间 ),pod的容器组共享网络和存储资源。
二来启用PID命名空间,它在每个Pod中都作为PID为1进程(init进程),并回收僵尸进程。
创建pod的3种方式
第一种:自主式Pod
这种Pod本身是不能自我修复的,当Pod被创建后(不论是由你直接创建还是被其他Controller),都会被Kuberentes调度到集群的Node上。直到Pod的进程终止、被删掉、因为缺少资源而被驱逐、或者Node故障之前这个Pod都会一直保持在那个Node上。Pod不会自愈。如果Pod运行的Node故障,或者是调度器本身故障,这个Pod就会被删除。同样的,如果Pod所在Node缺少资源或者Pod处于维护状态,Pod也会被驱逐。
总结:由scheduler调度到node节点创建,但是没有自愈能力,一旦pod删除或异常退出不会被拉起。没有控制器管理,也没有副本和滚动更新的功能
通过kubectl run创建
验证通过scheduler调度
第二种:控制器管理的Pod
Kubernetes使用更高级的称为Controller的抽象层,来管理Pod实例。Controller可以创建和管理多个Pod,提供副本管理、滚动升级和集群级别的自愈能力。例如,如果一个Node故障,Controller就能自动将该节点上的Pod调度到其他健康的Node上。虽然可以直接使用Pod,但是在Kubernetes中通常是使用Controller来管理Pod的。
总结:由scheduler调度到node节点,如果一旦pod被删除或异常退出,控制器会拉起pod让其保持为期望的副本数。这类pod可以有副本数和滚动更新的功能
举例:
基于pod控制器创建pod
删除pod验证会被重新拉起
验证通过scheduler调度
验证可以滚动更新
第三种:静态Pod
静态 Pod 直接由特定节点上的 kubelet 进程来管理,不通过 master 节点上的 apiserver。无法与控制器 Deployment 或者 DaemonSet 进行关联,它由 kubelet 进程自己来监控 ,当 pod 崩溃时重启该 pod , kubelete 也无法对他们进行健康检查。
静态 pod 始终绑定在某一个 kubelet ,并且始终运行在同一个节点上。 kubelet 会自动为每一个静态 pod 在 Kubernetes 的 apiserver 上创建一个镜像 Pod(Mirror Pod),因此我们可以在 apiserver 中查询到该 pod,但是不能通过 apiserver 进行控制(例如不能删除)。
总结:静态pod是不被scheduler调度的。静态pod是在node节点上的kubelet自行管理,始终与kubelet在同一个node节点上。通过向apiserver发送请求无法直接删除。在node节点的/etc/kubernetes/manifests目录中放置pod的yaml配置文件 kubelet就会自动根据yaml配置文件创建静态pod
#查看kubelet配置文件 /var/lib/kubelet/config.yaml
cat /var/lib/kubelet/config.yaml | grep staticPodPath
staticPodPath: /etc/kubernetes/manifests
#也可以通过下面命令找到kubelet对应的启动配置文件,修改node节点的kubelet配置文件,添加静态Pod的环境变量配置 --pod-manifest-path 参数
systemctl status kubelet
/usr/lib/systemd/system/kubelet.service.d
└─10-kubeadm.conf
vim /usr/lib/systemd/system/kubelet.service.d/10-kubeadm.conf
Environment="KUBELET_SYSTEM_PODS_ARGS=--pod-manifest-path=/etc/kubernetes/manifests --allowprivileged=true"
systemctl daemon-reload
systemctl restart kubelet
存放静态pod的yaml文件的位置
kubeadm部署的master节点的四大组件都是通过静态pod创建并运行
创建一个静态pod
静态pod无法用kubectl delete删除 除非将文件从/etc/kubernetes/manifests目录中挪走
运行中的 kubelet 周期扫描配置的目录下文件的变化,当这个目录中有文件出现或消失时创建或删除 pods。
在 Master 节点同样也可以看到该 Pod,如果执行 kubectl delete pod static-web-node01 命令删除该 Pod 发现,并不能删除。
静态pod的yaml文件 从/etc/kubernetes/manifests目录中挪走 删除
静态pod的名称
二、pod中容器的基础概念
pod容器的分类
pause容器(基础容器、根容器、父容器)
pause容器使得Pod中的所有容器可以共享两种资源:网络和存储。
●网络:
每个Pod都会被分配一个唯一的IP地址。Pod中的所有容器共享网络空间,包括IP地址和端口。Pod内部的容器可以使用localhost互相通信。Pod中的容器与外界通信时,必须分配共享网络资源(例如使用宿主机的端口映射)。
●存储:
Pod可以指定多个共享的Volume。Pod中的所有容器都可以访问共享的Volume。Volume也可以用来持久化Pod中的存储资源,以防容器重启后文件丢失。
//总结:
每个Pod都有一个特殊的被称为"基础容器"的Pause容器。Pause容器对应的镜像属于Kubernetes平台的一部分,除了Pause容器,每个Pod还包含一个或者多个紧密相关的用户应用容器。
kubernetes中的pause容器主要为每个容器提供以下功能:
●在pod中担任Linux命名空间(如网络命令空间)共享的基础;
●启用PID命名空间,开启init进程。
Kubernetes设计这样的Pod概念和特殊组成结构有什么用意?????
●原因一:在一组容器作为一个单元的情况下,难以对整体的容器简单地进行判断及有效地进行行动。比如,一个容器死亡了,此时是算整体挂了么?那么引入与业务无关的Pause容器作为Pod的基础容器,以它的状态代表着整个容器组的状态,这样就可以解决该问题。
●原因二:Pod里的多个应用容器共享Pause容器的IP,共享Pause容器挂载的Volume,这样简化了应用容器之间的通信问题,也解决了容器之间的文件共享问题。
启动一个Pod时,k8s会自动启动一个基础容器
每次创建 Pod 时候就会创建,运行的每一个Pod都有一个 pause-amd64 的基础容器自动会运行,对于用户是透明的
[root@master01 kubernetes]#cat /usr/lib/systemd/system/kubelet.service.d/10-kubeadm.conf
[root@master01 kubernetes]#cat /var/lib/kubelet/kubeadm-flags.env
KUBELET_KUBEADM_ARGS="--network-plugin=cni --pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2"
验证pause容器是pod中第一个创建的容器
总结:pause容器的作用
1、给pod中的容器组提供linux系统的命名空间,共享5大命名空间(mnt、uts、net、ipc、pid),能够让pod中的容器组共享网络和存储资源
2、作为pod中的pid=1的init管理进程,管理整个Pod容器组的生命周期
init容器
初始化容器(initcontainers)
//Init容器必须在应用程序容器启动之前运行完成,而应用程序容器是并行运行的,所以Init容器能够提供了一种简单的阻塞或延迟应用容器的启动的方法。
Init 容器与普通的容器非常像,除了以下两点:
●Init 容器总是运行到成功完成为止
●每个 Init 容器都必须在下一个 Init 容器启动之前成功完成启动和退出
如果 Pod 的 Init 容器失败,k8s 会不断地重启该 Pod,直到 Init 容器成功为止 。然而,如果 Pod 对应的重启策略(restartPolicy)为 Never,它不会重新启动。
Init 的容器作用
因为init容器具有与应用容器分离的单独镜像,其启动相关代码具有如下优势:
●Init 容器可以包含一些安装过程中应用容器中不存在的实用工具或个性化代码。例如,没有必要仅为了在安装过程中使用类似 sed、 awk、 python 或 dig 这样的工具而去FROM 一个镜像来生成一个新的镜像。
●Init 容器可以安全地运行这些工具,避免这些工具导致应用镜像的安全性降低。
●应用镜像的创建者和部署者可以各自独立工作,而没有必要联合构建一个单独的应用镜像。
●Init 容器能以不同于Pod内应用容器的文件系统视图运行。因此,Init容器可具有访问 Secrets 的权限,而应用容器不能够访问。
●由于 Init 容器必须在应用容器启动之前运行完成,因此 Init 容器提供了一种机制来阻塞或延迟应用容器的启动,
直到满足了一组先决条件。一旦前置条件满足,Pod内的所有的应用容器会并行启动。
应用容器
**应用容器(业务容器/main container):**提供应用程序业务
应用容器是在所有init容器都成功的完成启动退出后才会启动;如果Pod定义了多个应用容器,它们是并行启动的
关于pod容器启动说明
- 在Pod启动过程中,Init容器会按顺序在网络和数据卷初始化之后启动。每个容器必须在下一个容器启动之前成功退出。
- 如果由于运行时或失败退出,将导致容器启动失败,它会根据Pod的restartPolicy指定的策略进行重试。然而,如果Pod的restartPolicy设置为Always,Init容器失败时会使用RestartPolicy策略。
- 在所有的Init容器没有成功之前,Pod将不会变成Ready状态。Init容器的端口将不会在Service中进行聚集。正在初始化中的Pod处于Pending状态,但应该会将Initializing状态设置为true。
- 如果Pod重启,所有Init容器必须重新执行。
- 对Init容器spec的修改被限制在容器image字段,修改其他字段都不会生效。更改Init容器的image字段,等价于重启该Pod。(就是重构pod)
- Init容器具有应用容器的所有字段。除了readinessProbe,因为Init容器无法定义不同于完成(completion)的就绪(readiness)之外的其他状态。这会在验证过程中强制执行。
- 在Pod中的每个app和Init容器的名称必须唯一;与任何其它容器共享同一个名称,会在验证时抛出错误。
关于3种pod容器总结
pause容器(基础容器/父容器/根容器):
给Pod容器组做环境初始化,功能具体见上
pause容器是Pod最先启动的容器
init容器(初始化容器/init container):
可以在应用容器启动前,为应用容器提供运行依赖环境或工具包;还可以阻塞或延迟应用容器的启动
init容器是在pause容器之后启动的;如果Pod定义了多个init容器,它们是串行启动的,即要在上一个init容器成功的完成启动退出后才会启动下一个init容器
应用容器(业务容器/main container):
提供应用程序业务
应用容器是在所有init容器都成功的完成启动退出后才会启动;如果Pod定义了多个应用容器,它们是并行启动的
三、实操演练(验证三种容器的启动顺序)
官网给了案例
https://kubernetes.io/zh-cn/docs/concepts/workloads/pods/init-containers/
思路:准备一个yaml文件,定义两个init容器和2个应用容器
apiVersion: v1
kind: Pod
metadata:
labels:
myapp: nginx
name: pod-demo1
spec:
containers:
#作为应用容器1,拉取nginx镜像
- image: nginx:1.20
name: pod-c1
ports:
- containerPort: 80
#作为应用容器2,拉取busybox镜像,为了验证容器镜像启动是并行的
- image: centos:7
name: pod-c2
command:
- "/bin/sh"
- "-c"
- "sleep 3600"
#init初始化容器
initContainers:
- name: init-test01
image: soscscs/myapp:v1
#启动时需要解析出mysvc之后才会退出进入下一个init容器,为了验证init容器是串行运行
command:
- "/bin/sh"
- "-c"
- "until nslookup mysvc;do echo $(date); sleep 2; done && sleep 10"
- name: init-test02
image: soscscs/myapp:v1
#第二个init容器为了验证init容器串行,且该容器也是需要解析出mydb才能退出,进入应用容器,可以验证做到阻塞作用
command:
- "/bin/sh"
- "-c"
- "until nslookup mydb;do echo $(date); sleep 2; done && sleep 10"
步骤一:完成第一个初始化容器运行
步骤二:完成第二个init容器启动并退出
步骤三:验证应用容器为并行启动
进入node01节点查看
四、关于pod容器的三大镜像拉取策略
- IfNotPresent:优先使用node节点本地已存在的镜像,如果本地没有则从仓库拉取镜像。是标签为非latest的镜像的默认拉取策略
- Always:总是从仓库拉取镜像,无论node节点本地是否已存在镜像。是标签为latest或无标签的镜像的默认拉取策略
- Never:仅使用node节点本地镜像,总是不从仓库拉取镜像。
第一种:IfNotPresent:
apiVersion: v1
kind: Pod
metadata:
labels:
run: pod-test
name: pod-test01
spec:
containers:
- image: nginx:1.20
imagePullPolicy: IfNotPresent
name: pod-test
ports:
- containerPort: 80
dnsPolicy: ClusterFirst
restartPolicy: Always
本地有1.20版本镜像
如果本地没有1.25版本的镜像
apiVersion: v1
kind: Pod
metadata:
labels:
run: pod-test
name: pod-test02
spec:
containers:
- image: nginx:1.25
imagePullPolicy: IfNotPresent
name: pod-test
ports:
- containerPort: 80
dnsPolicy: ClusterFirst
restartPolicy: Always
第二种:Always
apiVersion: v1
kind: Pod
metadata:
labels:
run: pod-test
name: pod-test03
spec:
containers:
- image: nginx:1.20
imagePullPolicy: Always
name: pod-test
ports:
- containerPort: 80
dnsPolicy: ClusterFirst
restartPolicy: Always
第三种:Never
获取本地的镜像
apiVersion: v1
kind: Pod
metadata:
labels:
run: pod-test
name: pod-test04
spec:
containers:
- image: nginx:1.20
imagePullPolicy: Never
name: pod-test
ports:
- containerPort: 80
dnsPolicy: ClusterFirst
restartPolicy: Always
获取本地没有的镜像
apiVersion: v1
kind: Pod
metadata:
labels:
run: pod-test
name: pod-test05
spec:
containers:
- image: nginx:1.18
imagePullPolicy: Never
name: pod-test
ports:
- containerPort: 80
dnsPolicy: ClusterFirst
restartPolicy: Always
五、关于pod容器的三大重启策略
- Always:当Pod容器退出时,总是重启容器,无论容器退出状态码如何。是默认的容器重启策略
- OnFailure:当Pod容器异常退出时(容器退出状态码为非0),才会重启容器;正常退出的容器(容器退出状态码为0)不重启
- Never:当Pod容器退出时,总是不重启容器,无论容器退出状态码如何
第一种:always总是重启
正常退出会重启
apiVersion: v1
kind: Pod
metadata:
labels:
run: centos
name: centos-c1
spec:
containers:
- image: centos:7
imagePullPolicy: IfNotPresent
name: centos
command:
- /bin/sh
- -c
- "sleep 10"
dnsPolicy: ClusterFirst
restartPolicy: Always
针对异常退出也会重启
apiVersion: v1
kind: Pod
metadata:
labels:
run: centos
name: centos-c1
spec:
containers:
- image: centos:7
imagePullPolicy: IfNotPresent
name: centos
command:
- /bin/sh
- -c
- "sleep 10; exit 2"
dnsPolicy: ClusterFirst
restartPolicy: Always
第二种:onfailure 异常退出才会重启
正常退出不重启
apiVersion: v1
kind: Pod
metadata:
labels:
run: centos
name: centos-c1
spec:
containers:
- image: centos:7
imagePullPolicy: IfNotPresent
name: centos
command:
- /bin/sh
- -c
- "sleep 5"
dnsPolicy: ClusterFirst
restartPolicy: OnFailure
异常退出总是重启
apiVersion: v1
kind: Pod
metadata:
labels:
run: centos
name: centos-c1
spec:
containers:
- image: centos:7
imagePullPolicy: IfNotPresent
name: centos
command:
- /bin/sh
- -c
- "sleep 5;exit 2"
dnsPolicy: ClusterFirst
restartPolicy: OnFailure
第三种:never 总是不重启
异常退出 不重启