K8S之运用污点、容忍度设置Pod的调度约束

污点、容忍度

taints 是键值数据,用在节点上 ,定义污点;
tolerations 是键值数据,用在pod上,定义容忍度,能容忍哪些污点。

污点

污点 是定义在k8s集群的节点上的键值属性数据,可以决定拒绝那些pod。

给了Node选则的主动权,给Node打个污点,不容忍 的Pod就调度不上来。

现象:刚部署好的K8S集群,默认master节点上不会被调度来任何pod。

原因:master节点上有个污点

看 master节点的信息

bash 复制代码
kubectl describe nodes k8s-master1

Taints: node-role.kubernetes.io/control-plane:NoSchedule(排斥等级)

查看帮助命令,看如何设置Node的污点(taints是spec字段下的子字段)

bash 复制代码
kubectl explain node.spec.taints

解释说明

taints的 effect 字段(必填) 用来定义对pod对象的排斥等级

  • NoSchedule:仅影响pod调度过程,仅对未调度的pod有影响。(例如:这个节点的污点改了,使得之前调度的pod不能容忍了,对现存的pod对象不产生影响)
  • NoExecute:既影响调度过程,又影响现存的pod对象(例如:如果现存的pod不能容忍节点后来加的污点,这个pod就会被驱逐)排斥等级最高
  • PreferNoSchedule:最好不,也可以,是NoSchedule的柔性版本。(例如:pod实在没其他节点调度了,也可以到到这个污点等级的节点上)排斥等级最低

上面看到的 master节点的污点是Noschedule

所以默认创建的pod都不会调度到master上,因为创建的pod没有容忍度

查看部署后master节点上Pod的信息

bash 复制代码
kubectl describe pods kube-apiserver-k8s-master1 -n kube-system

相关信息的片段

可以看到这个pod的容忍度是NoExecute,则可以调度到k8s-master1上。

兼容了等级比NoExecute低的污点。

注意:在自建pod里污点等级,必须完全匹配才行

示例1: 使用污点排斥等级是NoSchedule

给k8s-node2打上污点

污点的key为node-type,值为production,排斥等级是NoSchedule

bash 复制代码
kubectl taint node k8s-node2 node-type=production:NoSchedule

ps. 排斥等级":NoSchedule"必填,否则创建失败

给k8s-node2打污点后,pod如果不能容忍就不会调度过来

创建pod资源文件

bash 复制代码
vim taint-pod.yaml 
yaml 复制代码
apiVersion: v1
kind: Pod
metadata:
  name: taint-pod
  namespace: default
  labels:
    tomcat:  tomcat-pod
spec:
  containers:
  - name:  taint-pod
    ports:
    - containerPort: 8080
    image: tomcat:8.5-jre8-alpine
imagePullPolicy: IfNotPresent 

创建pod资源

bash 复制代码
kubectl apply -f taint-pod.yaml

查看pod

bash 复制代码
kubectl get pods -o wide

可以看到被调度到k8s-node1上了,因为k8s-node2这个节点打了污点,而在创建pod的时候没有容忍度,所以k8s-node2上不会有pod调度上去的

示例2 :使用污点类型是NoExecute

在示例1的基础上,给刚刚的k8s-node1打污点

bash 复制代码
kubectl taint node k8s-node1 node-type=dev:NoExecute

查看pod

bash 复制代码
kubectl get pods -o wide

上面可以看到已经存在的pod节点都被撵走了

只看节点的污点

bash 复制代码
kubectl describe node k8s-node1|grep Taints


ps. 删除污点的方式

bash 复制代码
kubectl taint nodes k8s-node2 node-type-

容忍度

重新给node1打上污点,保证2个工作节点node上都打了污点。通过配置Pod的容忍度完成调度

查看帮助命令,看如何设置Pod的容忍度(tolerations是spec字段下的子字段)

bash 复制代码
kubectl explain pod.spec.tolerations

重点部分截图:

解释说明

  • effect:用来匹配node的污点等级
  • key:node标签的键
  • operator:匹配表达式
  • value:node标签的值
  • tolerationSeconds:与NoExecute搭配使用表示驱逐时间

tolerations 中的 effect 字段 用来匹配污点等级

  • NoExecute
  • NoSchedule
  • PreferNoSchedule

示例1 创建pod时,指定具体可容忍的node的特征

创建pod资源文件

bash 复制代码
vim vim pod-demo-1.yaml 
yaml 复制代码
apiVersion: v1
kind: Pod
metadata:
  name: myapp-deploy
  namespace: default
spec:
      containers:
      - name: myapp
        image: ikubernetes/myapp:v1
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 80
      tolerations:  # 设置Pod的容忍度
      - key: "node-type"   # node标签的键
        operator: "Equal"  # 匹配方式为等值匹配
        value: "production" # node标签的值
        effect: "NoExecute" # node的污点等级
        tolerationSeconds: 3600 # 与NoExecute搭配使用表示驱逐时间

创建pod资源

bash 复制代码
kubectl apply -f pod-demo-1.yaml

查看pod

bash 复制代码
kubectl get pods -o wide

还是显示pending,因使用的是equal(等值匹配),所以 key、value和effect 必须和 node 节点定义的污点完全匹配才可以。

把上面yaml文件调整一下:

1、配置effect: "NoExecute"变成"NoSchedule"

2、去掉tolerationSeconds

yaml 复制代码
apiVersion: v1
kind: Pod
metadata:
  name: myapp-deploy
  namespace: default
spec:
      containers:
      - name: myapp
        image: ikubernetes/myapp:v1
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 80
      tolerations:  
      - key: "node-type"   
        operator: "Equal"  
        value: "production" 
        effect: "NoSchedule"  

重建pod资源

bash 复制代码
kubectl delete -f pod-demo-1.yaml

kubectl apply -f pod-demo-1.yaml

查看pod

bash 复制代码
kubectl get pods -o wide

上面就可以调度到k8s-node2上了,因为在pod中定义的容忍度能容忍node节点上的污点

示例2:使用非精准容忍度匹配

再调整 pod-demo-1.yaml 的部分配置

yaml 复制代码
apiVersion: v1
kind: Pod
metadata:
  name: myapp-deploy
  namespace: default
spec:
      containers:
      - name: myapp
        image: ikubernetes/myapp:v1
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 80
      tolerations:  
      - key: "node-type"   
        operator: "Exists"    # 调整了匹配方式
        value: ""             # 去掉了node的污点值
        effect: "NoSchedule"  # 匹配的等级

只要对应的键是存在的,exists,其值被自动定义成通配符

重建pod资源

bash 复制代码
kubectl delete -f pod-demo-1.yaml

kubectl apply -f pod-demo-1.yaml

查看pod

bash 复制代码
kubectl get pods -o wide

发现还是调度到k8s-node2上

再次修改

yaml 复制代码
apiVersion: v1
kind: Pod
metadata:
  name: myapp-deploy
  namespace: default
spec:
      containers:
      - name: myapp
        image: ikubernetes/myapp:v1
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 80
      tolerations:  
      - key: "node-type"   
        operator: "Exists"  # 调整了匹配方式
        value: ""           # 去掉了值
        effect: ""          # 去掉node的污点等级

有一个node-type的键,不管值是什么,不管是什么污点等级,都能容忍

重建pod资源

bash 复制代码
kubectl delete -f pod-demo-1.yaml

kubectl apply -f pod-demo-1.yaml

查看pod

bash 复制代码
kubectl get pods -o wide

可以看到k8s-node2和k8s-node1节点上都有可能有pod被调度

相关推荐
妍妍的宝贝1 小时前
k8s 中的金丝雀发布(灰度发布)
云原生·容器·kubernetes
梆子井欢喜坨2 小时前
《Cloud Native Data Center Networking》(云原生数据中心网络设计)读书笔记 -- 12数据中心中的EVPN
网络·云原生
iangyu3 小时前
docker常用命令
运维·docker·容器
Dylanioucn3 小时前
【分布式微服务云原生】掌握 Redis Cluster架构解析、动态扩展原理以及哈希槽分片算法
算法·云原生·架构
飞酱不会电脑6 小时前
云计算第四阶段 CLOUD2周目 01-03
云原生·容器·kubernetes
程序那点事儿7 小时前
k8s 之安装busybox
云原生·容器·kubernetes
weixin_453965008 小时前
master节点k8s部署]33.ceph分布式存储(四)
分布式·ceph·kubernetes
是芽芽哩!8 小时前
【Kubernetes】常见面试题汇总(五十八)
云原生·容器·kubernetes
福大大架构师每日一题19 小时前
22.1 k8s不同role级别的服务发现
容器·kubernetes·服务发现
莹雨潇潇19 小时前
Docker 快速入门(Ubuntu版)
java·前端·docker·容器