Pod控制器

一、Pod控制器及其功用

Pod控制器(工作负载):管理一组pod的状态,保证pod副本数量=用户期望值;能处理不同的启动和终止情况,pod的资源出现故障时,会尝试进行重启,当根据重启策略无效,则会重新新建pod的资源。

二、pod控制器类型(6)

1、ReplicaSet保证pod副本数量=用户期望值 ,并且支持滚动式自动扩容和缩容 功能。

ReplicaSet主要三个组件组成:

(1)用户期望的pod副本数量

(2)标签选择器,判断哪个pod归自己管理

(3)当现存的pod数量不足,会根据pod资源模板进行新建

帮助用户管理无状态的pod资源,精确反应用户定义的目标数量,但是RelicaSet不是直接使用的控制器,而是使用Deployment。

2、Deployment 无状态应用部署:管理replicaset和pod,保证pod副本数量=用户期望值并行创建和删除pod,升级时 先创建一部分 再删除一部分 。目前来说最好的控制器,支持滚动更新和回滚功能,还提供声明式配置

ReplicaSet 与Deployment 这两个资源对象逐步替换之前RC的作用。

应用场景:nginx等静态页面(每次访问都是相同的页面)

3、DaemonSet在k8s集群所有node节点创建相同的pod(无论pod何时加入k8s集群) ,会受到node节点上污点的影响。通常用于实现系统级后台任务,比如ELK服务(服务是无状态的,服务必须是守护进程)

**应用场景:ELK、zabbix(需要在每个节点收集数据)**用于实现系统级后台任务

4、StatefulSet 有状态应用部署每个pod唯一且不变,每个pod拥有自己的专属的持久化存储(PV和PVC)

在k8s集群内部通过 (pod_name).(service_name).(namespace).svc.cluster.local 解析出pod的IP(基于headless service CoreDNS)
串行 创建和删除pod;串行升级pod,先删除旧的pod,再创建新的pod,删除和升级时逆执行(标识符从 n-1 到 0)创建时升序(标识符从 0 到 n-1 )

应用场景:数据库、kafka、redis(每次访问页面动态变化)

5、Job 一次性计划任务:部署一次性任务的pod,正常完成后容器立即退出 不重启容器 (restartPlolicy 重启策略不能设置always,不然一直重启就不是一次性计划任务了),也不重建pod;异常完成后重建的pod会重启容器,重建次数按照 backofflimit配置指定(默认6次)

使用场景:只执行一次的任务,比如数据库备份、测试、文件同步、删除

6、Cronjob 周期性计划任务:周期性部署任务的pod,正常完成后容器立即退出 不重启容器 (restartPlolicy 重启策略不能设置always),也不重建pod;schedule配置周期性时间表(* * * * * 分时日月周)

应用场景:在应用平台在高并发量的时间段(7-9点),创建pod,以接收巨大流量

三、Pod与控制器之间的关系

controllers:在集群上管理和运行容器的 pod 对象, pod 通过 label-selector 相关联。

Pod 通过控制器实现应用的运维,如伸缩,升级等。

1、Deployment

部署无状态应用

管理Pod和ReplicaSet

具有上线部署、副本设定、滚动升级、回滚等功能

提供声明式更新,例如只更新一个新的image

应用场景:web服务

//示例:

vim nginx-deployment.yaml

apiVersion: apps/v1

kind: Deployment

metadata:

name: nginx-deployment

labels:

app: nginx

spec:

replicas: 3

selector:

matchLabels:

app: nginx

template:

metadata:

labels:

app: nginx

spec:

containers:

  • name: nginx

image: nginx:1.15.4

ports:

  • containerPort: 80

kubectl create -f nginx-deployment.yaml

kubectl get pods,deploy,rs

//查看控制器配置

kubectl edit deployment/nginx-deployment

apiVersion: apps/v1

kind: Deployment

metadata:

annotations:

deployment.kubernetes.io/revision: "1"

creationTimestamp: "2021-04-19T08:13:50Z"

generation: 1

labels:

app: nginx #Deployment资源的标签

name: nginx-deployment

namespace: default

resourceVersion: "167208"

selfLink: /apis/extensions/v1beta1/namespaces/default/deployments/nginx-deployment

uid: d9d3fef9-20d2-4196-95fb-0e21e65af24a

spec:

progressDeadlineSeconds: 600

replicas: 3 #期望的pod数量,默认是1

revisionHistoryLimit: 10

selector:

matchLabels:

app: nginx

strategy:

rollingUpdate:

maxSurge: 25% #升级过程中会先启动的新Pod的数量不超过期望的Pod数量的25%,也可以是一个绝对值

maxUnavailable: 25% #升级过程中在新的Pod启动好后销毁的旧Pod的数量不超过期望的Pod数量的25%,也可以是一个绝对值

type: RollingUpdate #滚动升级

template:

metadata:

creationTimestamp: null

labels:

app: nginx #Pod副本关联的标签

spec:

containers:

  • image: nginx:1.15.4 #镜像名称

imagePullPolicy: IfNotPresent #镜像拉取策略

name: nginx

ports:

  • containerPort: 80 #容器暴露的监听端口

protocol: TCP

resources: {}

terminationMessagePath: /dev/termination-log

terminationMessagePolicy: File

dnsPolicy: ClusterFirst

restartPolicy: Always #容器重启策略

schedulerName: default-scheduler

securityContext: {}

terminationGracePeriodSeconds: 30

......

//查看历史版本

kubectl rollout history deployment/nginx-deployment

deployment.apps/nginx-deployment

REVISION CHANGE-CAUSE

1 <none>

2、SatefulSet

部署有状态应用

稳定的持久化存储,即Pod重新调度后还是能访问到相同的持久化数据,基于PVC来实现

稳定的网络标志,即Pod重新调度后其PodName和HostName不变,基于Headless Service(即没有Cluster IP的Service)来实现

有序部署,有序扩展,即Pod是有顺序的,在部署或者扩展的时候要依据定义的顺序依次进行(即从0到N-1,在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态),基于init containers来实现

有序收缩,有序删除(即从N-1到0)

常见的应用场景:数据库

https://kubernetes.io/docs/concepts/workloads/controllers/statefulset/

apiVersion: v1

kind: Service

metadata:

name: nginx

labels:

app: nginx

spec:

ports:

  • port: 80

name: web

clusterIP: None

selector:

app: nginx


apiVersion: apps/v1

kind: StatefulSet

metadata:

name: web

spec:

selector:

matchLabels:

app: nginx # has to match .spec.template.metadata.labels

serviceName: "nginx"

replicas: 3 # by default is 1

template:

metadata:

labels:

app: nginx # has to match .spec.selector.matchLabels

spec:

terminationGracePeriodSeconds: 10

containers:

  • name: nginx

image: k8s.gcr.io/nginx-slim:0.8

ports:

  • containerPort: 80

name: web

volumeMounts:

  • name: www

mountPath: /usr/share/nginx/html

volumeClaimTemplates:

  • metadata:

name: www

spec:

accessModes: [ "ReadWriteOnce" ]

storageClassName: "my-storage-class"

resources:

requests:

storage: 1Gi

三个组件

从上面的应用场景可以发现,StatefulSet由以下几个部分组成:

●Headless Service(无头服务):用于为Pod资源标识符生成可解析的DNS记录。

●volumeClaimTemplates(存储卷申请模板):基于静态或动态PV供给方式为Pod资源提供专有的固定存储。

●StatefulSet:用于管控Pod资源。

为什么要有headless?

在deployment中,每一个pod是没有名称,是随机字符串,是无序的。而statefulset中是要求有序的,每一个pod的名称必须是固定的。当节点挂了,重建之后的标识符是不变的,每一个节点的节点名称是不能改变的。pod名称是作为pod识别的唯一标识符,必须保证其标识符的稳定并且唯一。

为了实现标识符的稳定,这时候就需要一个headless service 解析直达到pod,还需要给pod配置一个唯一的名称。

为什么要有volumeClainTemplate?

大部分有状态副本集都会用到持久存储,比如分布式系统来说,由于数据是不一样的,每个节点都需要自己专用的存储节点。而在 deployment中pod模板中创建的存储卷是一个共享的存储卷,多个pod使用同一个存储卷,而statefulset定义中的每一个pod都不能使用同一个存储卷,由此基于pod模板创建pod是不适应的,这就需要引入volumeClainTemplate,当在使用statefulset创建pod时,会自动生成一个PVC,从而请求绑定一个PV,从而有自己专用的存储卷。

服务发现:就是应用服务之间相互定位的过程。

应用场景:

●动态性强:Pod会飘到别的node节点

●更新发布频繁:互联网思维小步快跑,先实现再优化,老板永远是先上线再慢慢优化,先把idea变成产品挣到钱然后再慢慢一点一点优化

●支持自动伸缩:一来大促,肯定是要扩容多个副本

K8S里服务发现的方式---DNS,使K8S集群能够自动关联Service资源的"名称"和"CLUSTER-IP",从而达到服务被集群自动发现的目的。

实现K8S里DNS功能的插件:

●skyDNS:Kubernetes 1.3之前的版本

●kubeDNS:Kubernetes 1.3至Kubernetes 1.11

●CoreDNS:Kubernetes 1.11开始至今

//安装CoreDNS,仅二进制部署环境需要安装CoreDNS

方法一:

下载链接:https://github.com/kubernetes/kubernetes/blob/master/cluster/addons/dns/coredns/coredns.yaml.base

vim transforms2sed.sed

s/DNS__SERVER/10.0.0.2/g

s/DNS__DOMAIN/cluster.local/g

s/DNS__MEMORY__LIMIT/170Mi/g

s/MACHINE_GENERATED_WARNING/Warning: This is a file generated from the base underscore template file: coredns.yaml.base/g

sed -f transforms2sed.sed coredns.yaml.base > coredns.yaml

方法二:上传 coredns.yaml 文件

kubectl create -f coredns.yaml

kubectl get pods -n kube-system

vim nginx-service.yaml

apiVersion: v1

kind: Service

metadata:

name: nginx-service

labels:

app: nginx

spec:

type: NodePort

ports:

  • port: 80

targetPort: 80

selector:

app: nginx

kubectl create -f nginx-service.yaml

kubectl get svc

NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE

kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 5d19h

nginx-service NodePort 10.96.173.115 <none> 80:31756/TCP 10s

vim pod6.yaml

apiVersion: v1

kind: Pod

metadata:

name: dns-test

spec:

containers:

  • name: busybox

image: busybox:1.28.4

args:

  • /bin/sh

  • -c

  • sleep 36000

restartPolicy: Never

kubectl create -f pod6.yaml

//解析kubernetes和nginx-service名称

kubectl exec -it dns-test sh

/ # nslookup kubernetes

Server: 10.96.0.10

Address 1: 10.96.0.10 kube-dns.kube-system.svc.cluster.local

Name: kubernetes

Address 1: 10.96.0.1 kubernetes.default.svc.cluster.local

/ # nslookup nginx-service

Server: 10.96.0.10

Address 1: 10.96.0.10 kube-dns.kube-system.svc.cluster.local

Name: nginx-service

Address 1: 10.96.173.115 nginx-service.default.svc.cluster.local

//查看statefulset的定义

kubectl explain statefulset

KIND: StatefulSet

VERSION: apps/v1

DESCRIPTION:

StatefulSet represents a set of pods with consistent identities. Identities

are defined as: - Network: A single stable DNS and hostname. - Storage: As

many VolumeClaims as requested. The StatefulSet guarantees that a given

network identity will always map to the same storage identity.

FIELDS:

apiVersion <string>

kind <string>

metadata <Object>

spec <Object>

status <Object>

kubectl explain statefulset.spec

KIND: StatefulSet

VERSION: apps/v1

RESOURCE: spec <Object>

DESCRIPTION:

Spec defines the desired identities of pods in this set.

A StatefulSetSpec is the specification of a StatefulSet.

FIELDS:

podManagementPolicy <string> #Pod管理策略

replicas <integer> #副本数量

revisionHistoryLimit <integer> #历史版本限制

selector <Object> -required- #选择器,必选项

serviceName <string> -required- #服务名称,必选项

template <Object> -required- #模板,必选项

updateStrategy <Object> #更新策略

volumeClaimTemplates <[]Object> #存储卷申请模板,必选项

//清单定义StatefulSet

如上所述,一个完整的 StatefulSet 控制器由一个 Headless Service、一个 StatefulSet 和一个 volumeClaimTemplate 组成。如下资源清单中的定义:

vim stateful-demo.yaml

apiVersion: v1

kind: Service

metadata:

name: myapp-svc

labels:

app: myapp-svc

spec:

ports:

  • port: 80

name: web

clusterIP: None

selector:

app: myapp-pod


apiVersion: apps/v1

kind: StatefulSet

metadata:

name: myapp

spec:

serviceName: myapp-svc

replicas: 3

selector:

matchLabels:

app: myapp-pod

template:

metadata:

labels:

app: myapp-pod

spec:

containers:

  • name: myapp

image: ikubernetes/myapp:v1

ports:

  • containerPort: 80

name: web

volumeMounts:

  • name: myappdata

mountPath: /usr/share/nginx/html

volumeClaimTemplates:

  • metadata:

name: myappdata

annotations: #动态PV创建时,使用annotations在PVC里声明一个StorageClass对象的标识进行关联

volume.beta.kubernetes.io/storage-class: nfs-client-storageclass

spec:

accessModes: ["ReadWriteOnce"]

resources:

requests:

storage: 2Gi

解析上例:由于 StatefulSet 资源依赖于一个实现存在的 Headless 类型的 Service 资源,所以需要先定义一个名为 myapp-svc 的 Headless Service 资源,用于为关联到每个 Pod 资源创建 DNS 资源记录。接着定义了一个名为 myapp 的 StatefulSet 资源,它通过 Pod 模板创建了 3 个 Pod 资源副本,并基于 volumeClaimTemplates 向前面创建的PV进行了请求大小为 2Gi 的专用存储卷。

//创建pv

//stor01节点

mkdir -p /data/volumes/v{1,2,3,4,5}

vim /etc/exports

/data/volumes/v1 192.168.80.0/24(rw,no_root_squash)

/data/volumes/v2 192.168.80.0/24(rw,no_root_squash)

/data/volumes/v3 192.168.80.0/24(rw,no_root_squash)

/data/volumes/v4 192.168.80.0/24(rw,no_root_squash)

/data/volumes/v5 192.168.80.0/24(rw,no_root_squash)

systemctl restart rpcbind

systemctl restart nfs

exportfs -arv

showmount -e

//定义PV

vim pv-demo.yaml

apiVersion: v1

kind: PersistentVolume

metadata:

name: pv001

labels:

name: pv001

spec:

nfs:

path: /data/volumes/v1

server: stor01

accessModes: ["ReadWriteMany","ReadWriteOnce"]

capacity:

storage: 1Gi


apiVersion: v1

kind: PersistentVolume

metadata:

name: pv002

labels:

name: pv002

spec:

nfs:

path: /data/volumes/v2

server: stor01

accessModes: ["ReadWriteOnce"]

capacity:

storage: 2Gi


apiVersion: v1

kind: PersistentVolume

metadata:

name: pv003

labels:

name: pv003

spec:

nfs:

path: /data/volumes/v3

server: stor01

accessModes: ["ReadWriteMany","ReadWriteOnce"]

capacity:

storage: 2Gi


apiVersion: v1

kind: PersistentVolume

metadata:

name: pv004

labels:

name: pv004

spec:

nfs:

path: /data/volumes/v4

server: stor01

accessModes: ["ReadWriteMany","ReadWriteOnce"]

capacity:

storage: 2Gi


apiVersion: v1

kind: PersistentVolume

metadata:

name: pv005

labels:

name: pv005

spec:

nfs:

path: /data/volumes/v5

server: stor01

accessModes: ["ReadWriteMany","ReadWriteOnce"]

capacity:

storage: 2Gi

kubectl apply -f pv-demo.yaml

kubectl get pv

NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE

pv001 1Gi RWO,RWX Retain Available 7s

pv002 2Gi RWO Retain Available 7s

pv003 2Gi RWO,RWX Retain Available 7s

pv004 2Gi RWO,RWX Retain Available 7s

pv005 2Gi RWO,RWX Retain Available 7s

//创建statefulset

kubectl apply -f stateful-demo.yaml

kubectl get svc #查看创建的无头服务myapp-svc

NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE

kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 50d

myapp-svc ClusterIP None <none> 80/TCP 38s

kubectl get sts #查看statefulset

NAME DESIRED CURRENT AGE

myapp 3 3 55s

kubectl get pvc #查看pvc绑定

NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE

myappdata-myapp-0 Bound pv002 2Gi RWO 1m

myappdata-myapp-1 Bound pv003 2Gi RWO,RWX 1m

myappdata-myapp-2 Bound pv004 2Gi RWO,RWX 1m

kubectl get pv #查看pv绑定

NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE

pv001 1Gi RWO,RWX Retain Available 6m

pv002 2Gi RWO Retain Bound default/myappdata-myapp-0 6m

pv003 2Gi RWO,RWX Retain Bound default/myappdata-myapp-1 6m

pv004 2Gi RWO,RWX Retain Bound default/myappdata-myapp-2 6m

pv005 2Gi RWO,RWX Retain Available 6m

kubectl get pods #查看Pod信息

NAME READY STATUS RESTARTS AGE

myapp-0 1/1 Running 0 2m

myapp-1 1/1 Running 0 2m

myapp-2 1/1 Running 0 2m

kubectl delete -f stateful-demo.yaml

//当删除的时候是从myapp-2开始进行删除的,关闭是逆向关闭

kubectl get pods -w

//此时PVC依旧存在的,再重新创建pod时,依旧会重新去绑定原来的pvc

kubectl apply -f stateful-demo.yaml

kubectl get pvc

NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE

myappdata-myapp-0 Bound pv002 2Gi RWO 5m

myappdata-myapp-1 Bound pv003 2Gi RWO,RWX 5m

myappdata-myapp-2 Bound pv004 2Gi RWO,RWX

//滚动更新

//StatefulSet 控制器将在 StatefulSet 中删除并重新创建每个 Pod。它将以与 Pod 终止相同的顺序进行(从最大的序数到最小的序数),每次更新一个 Pod。在更新其前身之前,它将等待正在更新的 Pod 状态变成正在运行并就绪。如下操作的滚动更新是按照2-0的顺序更新。

vim stateful-demo.yaml #修改image版本为v2

.....

image: ikubernetes/myapp:v2

....

kubectl apply -f stateful-demo.yaml

kubectl get pods -w #查看滚动更新的过程

NAME READY STATUS RESTARTS AGE

myapp-0 1/1 Running 0 29s

myapp-1 1/1 Running 0 27s

myapp-2 0/1 Terminating 0 26s

myapp-2 0/1 Terminating 0 30s

myapp-2 0/1 Terminating 0 30s

myapp-2 0/1 Pending 0 0s

myapp-2 0/1 Pending 0 0s

myapp-2 0/1 ContainerCreating 0 0s

myapp-2 1/1 Running 0 31s

myapp-1 1/1 Terminating 0 62s

myapp-1 0/1 Terminating 0 63s

myapp-1 0/1 Terminating 0 66s

myapp-1 0/1 Terminating 0 67s

myapp-1 0/1 Pending 0 0s

myapp-1 0/1 Pending 0 0s

myapp-1 0/1 ContainerCreating 0 0s

myapp-1 1/1 Running 0 30s

myapp-0 1/1 Terminating 0 99s

myapp-0 0/1 Terminating 0 100s

myapp-0 0/1 Terminating 0 101s

myapp-0 0/1 Terminating 0 101s

myapp-0 0/1 Pending 0 0s

myapp-0 0/1 Pending 0 0s

myapp-0 0/1 ContainerCreating 0 0s

myapp-0 1/1 Running 0 1s

//在创建的每一个Pod中,每一个pod自己的名称都是可以被解析的

kubectl exec -it myapp-0 /bin/sh

Name: myapp-0.myapp-svc.default.svc.cluster.local

Address 1: 10.244.2.27 myapp-0.myapp-svc.default.svc.cluster.local

/ # nslookup myapp-1.myapp-svc.default.svc.cluster.local

nslookup: can't resolve '(null)': Name does not resolve

Name: myapp-1.myapp-svc.default.svc.cluster.local

Address 1: 10.244.1.14 myapp-1.myapp-svc.default.svc.cluster.local

/ # nslookup myapp-2.myapp-svc.default.svc.cluster.local

nslookup: can't resolve '(null)': Name does not resolve

Name: myapp-2.myapp-svc.default.svc.cluster.local

Address 1: 10.244.2.26 myapp-2.myapp-svc.default.svc.cluster.local

//从上面的解析,我们可以看到在容器当中可以通过对Pod的名称进行解析到ip。其解析的域名格式如下:

(pod_name).(service_name).(namespace_name).svc.cluster.local

//总结

无状态:

1)deployment 认为所有的pod都是一样的

2)不用考虑顺序的要求

3)不用考虑在哪个node节点上运行

4)可以随意扩容和缩容

有状态

1)实例之间有差别,每个实例都有自己的独特性,元数据不同,例如etcd,zookeeper

2)实例之间不对等的关系,以及依靠外部存储的应用。

常规service和无头服务区别

service:一组Pod访问策略,提供cluster-IP群集之间通讯,还提供负载均衡和服务发现。

Headless service:无头服务,不需要cluster-IP,而是直接以DNS记录的方式解析出被代理Pod的IP地址。

vim pod6.yaml

apiVersion: v1

kind: Pod

metadata:

name: dns-test

spec:

containers:

  • name: busybox

image: busybox:1.28.4

args:

  • /bin/sh

  • -c

  • sleep 36000

restartPolicy: Never

vim sts.yaml

apiVersion: v1

kind: Service

metadata:

name: nginx

labels:

app: nginx

spec:

ports:

  • port: 80

name: web

clusterIP: None

selector:

app: nginx


apiVersion: apps/v1beta1

kind: StatefulSet

metadata:

name: nginx-statefulset

namespace: default

spec:

serviceName: nginx

replicas: 3

selector:

matchLabels:

app: nginx

template:

metadata:

labels:

app: nginx

spec:

containers:

  • name: nginx

image: nginx:latest

ports:

  • containerPort: 80

kubectl apply -f sts.yaml

kubectl apply -f pod6.yaml

kubectl get pods,svc

kubectl exec -it dns-test sh

/ # nslookup nginx-statefulset-0.nginx.default.svc.cluster.local

/ # nslookup nginx-statefulset-1.nginx.default.svc.cluster.local

/ # nslookup nginx-statefulset-2.nginx.default.svc.cluster.local

kubectl exec -it nginx-statefulset-0 bash

/# curl nginx-statefulset-0.nginx

/# curl nginx-statefulset-1.nginx

/# curl nginx-statefulset-2.nginx

//扩展伸缩

kubectl scale sts myapp --replicas=4 #扩容副本增加到4个

kubectl get pods -w #动态查看扩容

kubectl get pv #查看pv绑定

kubectl patch sts myapp -p '{"spec":{"replicas":2}}' #打补丁方式缩容

kubectl get pods -w #动态查看缩容

3、DaemonSet

DaemonSet 确保全部(或者一些)Node 上运行一个 Pod 的副本。当有 Node 加入集群时,也会为他们新增一个 Pod 。当有 Node 从集群移除时,这些 Pod 也会被回收。删除 DaemonSet 将会删除它创建的所有 Pod。

使用 DaemonSet 的一些典型用法:

●运行集群存储 daemon,例如在每个 Node 上运行 glusterd、ceph。

●在每个 Node 上运行日志收集 daemon,例如fluentd、logstash。

●在每个 Node 上运行监控 daemon,例如 Prometheus Node Exporter、collectd、Datadog 代理、New Relic 代理,或 Ganglia gmond。

应用场景:Agent

//官方案例(监控)

https://kubernetes.io/docs/concepts/workloads/controllers/daemonset/

示例:

vim ds.yaml

apiVersion: apps/v1

kind: DaemonSet

metadata:

name: nginx-daemonSet

labels:

app: nginx

spec:

selector:

matchLabels:

app: nginx

template:

metadata:

labels:

app: nginx

spec:

containers:

  • name: nginx

image: nginx:1.15.4

ports:

  • containerPort: 80

kubectl apply -f ds.yaml

//DaemonSet会在每个node节点都创建一个Pod

kubectl get pods

nginx-deployment-4kr6h 1/1 Running 0 35s

nginx-deployment-8jrg5 1/1 Running 0 35s

4、Job

Job分为普通任务(Job)和定时任务(CronJob)

常用于运行那些仅需要执行一次的任务

应用场景:数据库迁移、批处理脚本、kube-bench扫描、离线数据处理,视频解码等业务

https://kubernetes.io/docs/concepts/workloads/controllers/jobs-run-to-completion/

示例:

vim job.yaml

apiVersion: batch/v1

kind: Job

metadata:

name: pi

spec:

template:

spec:

containers:

  • name: pi

image: perl

command: ["perl", "-Mbignum=bpi", "-wle", "print bpi(2000)"]

restartPolicy: Never

backoffLimit: 4

//参数解释

.spec.template.spec.restartPolicy该属性拥有三个候选值:OnFailure,Never和Always。默认值为Always。它主要用于描述Pod内容器的重启策略。在Job中只能将此属性设置为OnFailure或Never,否则Job将不间断运行。

.spec.backoffLimit用于设置job失败后进行重试的次数,默认值为6。默认情况下,除非Pod失败或容器异常退出,Job任务将不间断的重试,此时Job遵循 .spec.backoffLimit上述说明。一旦.spec.backoffLimit达到,作业将被标记为失败。

//在所有node节点下载perl镜像,因为镜像比较大,所以建议提前下载好

docker pull perl

kubectl apply -f job.yaml

kubectl get pods

pi-bqtf7 0/1 Completed 0 41s

//结果输出到控制台

kubectl logs pi-bqtf7

3.14159265......

//清除job资源

kubectl delete -f job.yaml

//backoffLimit

vim job-limit.yaml

apiVersion: batch/v1

kind: Job

metadata:

name: busybox

spec:

template:

spec:

containers:

  • name: busybox

image: busybox

imagePullPolicy: IfNotPresent

command: ["/bin/sh", "-c", "sleep 10;date;exit 1"]

restartPolicy: Never

backoffLimit: 2

kubectl apply -f job-limit.yaml

kubectl get job,pods

NAME COMPLETIONS DURATION AGE

job.batch/busybox 0/1 4m34s 4m34s

NAME READY STATUS RESTARTS AGE

pod/busybox-dhrkt 0/1 Error 0 4m34s

pod/busybox-kcx46 0/1 Error 0 4m

pod/busybox-tlk48 0/1 Error 0 4m21s

kubectl describe job busybox

......

Warning BackoffLimitExceeded 43s job-controller Job has reached the specified backoff limit

5、CronJob

周期性任务,像Linux的Crontab一样。

周期性任务

应用场景:通知,备份

https://kubernetes.io/docs/tasks/job/automated-tasks-with-cron-jobs/

示例:

//每分钟打印hello

vim cronjob.yaml

apiVersion: batch/v1beta1

kind: CronJob

metadata:

name: hello

spec:

schedule: "*/1 * * * *"

jobTemplate:

spec:

template:

spec:

containers:

  • name: hello

image: busybox

imagePullPolicy: IfNotPresent

args:

  • /bin/sh

  • -c

  • date; echo Hello from the Kubernetes cluster

restartPolicy: OnFailure

//cronjob其它可用参数的配置

spec:

concurrencyPolicy: Allow #要保留的失败的完成作业数(默认为1)

schedule: '*/1 * * * *' #作业时间表。在此示例中,作业将每分钟运行一次

startingDeadlineSeconds: 15 #pod必须在规定时间后的15秒内开始执行,若超过该时间未执行,则任务将不运行,且标记失败

successfulJobsHistoryLimit: 3 #要保留的成功完成的作业数(默认为3)

terminationGracePeriodSeconds: 30 #job存活时间 默认不设置为永久

jobTemplate: #作业模板。这类似于工作示例

kubectl create -f cronjob.yaml

kubectl get cronjob

NAME SCHEDULE SUSPEND ACTIVE LAST SCHEDULE AGE

hello */1 * * * * False 0 <none> 25s

kubectl get pods

NAME READY STATUS RESTARTS AGE

hello-1621587180-mffj6 0/1 Completed 0 3m

hello-1621587240-g68w4 0/1 Completed 0 2m

hello-1621587300-vmkqg 0/1 Completed 0 60s

kubectl logs hello-1621587180-mffj6

Fri May 21 09:03:14 UTC 2021

Hello from the Kubernetes cluster

//如果报错:Error from server (Forbidden): Forbidden (user=system:anonymous, verb=get, resource=nodes, subresource=proxy) ( pods/log hello-1621587780-c7v54)

//解决办法:绑定一个cluster-admin的权限

kubectl create clusterrolebinding system:anonymous --clusterrole=cluster-admin --user=system:anonymous

相关推荐
南宫生9 分钟前
力扣-图论-17【算法学习day.67】
java·学习·算法·leetcode·图论
转码的小石17 分钟前
12/21java基础
java
高山我梦口香糖25 分钟前
[react]searchParams转普通对象
开发语言·前端·javascript
李小白6625 分钟前
Spring MVC(上)
java·spring·mvc
GoodStudyAndDayDayUp38 分钟前
IDEA能够从mapper跳转到xml的插件
xml·java·intellij-idea
信号处理学渣1 小时前
matlab画图,选择性显示legend标签
开发语言·matlab
红龙创客1 小时前
某狐畅游24校招-C++开发岗笔试(单选题)
开发语言·c++
jasmine s1 小时前
Pandas
开发语言·python
装不满的克莱因瓶1 小时前
【Redis经典面试题六】Redis的持久化机制是怎样的?
java·数据库·redis·持久化·aof·rdb
n北斗1 小时前
常用类晨考day15
java