21-k8s中pod的调度-污点和污点容忍

一、污点的概念

所谓的污点,就是给k8s集群中的节点设置的污点,通过设置污点,来规划资源创建时所在的节点;

|-----------------|-------------------------------------|
| 污点的类型 | 解释说明 |
| PreferNoshedule | 节点设置这个五点类型后; 表示,该节点接受调度,但是会降低调度的概率; |
| NoShedule | 表示,该节点不接受新的调度,以前有的资源,可以继续存在 |
| NoExecute | 表示,不接受新的调度,驱逐以前的资源调度; |

根据节点设置污点;

二、污点的管理

1,查看污点

[root@k8s231 dns]# kubectl describe nodes | grep -i taint

Taints: node-role.kubernetes.io/master:NoSchedule

Taints: <none>

Taints: <none>

取前两行查看

[root@k8s231 dns]# kubectl describe nodes | grep -i taint -A 2

Taints: node-role.kubernetes.io/master:NoSchedule

Unschedulable: false

Lease:

--

Taints: <none>

Unschedulable: false

Lease:

--

Taints: <none>

Unschedulable: false

Lease:

2,创建污点

创建污点前,查看pod

创建污点

注意:创建五点有两种方式

第一种:key=value:污点类型

第二种:key:污点类型

[root@k8s231 dns]# kubectl taint node k8s233 k8s=xinjizhiwa:NoExecute

创建污点后,查看pod

查看原因

[root@k8s231 dns]# kubectl describe pods dm01-57ff86798f-4sl9r

3,删除污点

[root@k8s231 dns]# kubectl taint node k8s233 k8s=xinjizhiwa:NoExecute-

把五点删除后,pod又恢复了

4,修改污点

[root@k8s231 dns]# kubectl taint node k8s233 k8s=xinjizhiwa:NoExecute --overwrite

三、污点容忍tolerations

1,污点容忍的概念

通过上文,我们谁知道,我们可以通过给k8s集群节点设置不同类型的"污点",来控制资源创建的节点范围;

那么,k8s也同时提供了,"污点容忍",就是即便你的节点设置了"污点",我的资源也可以创建在这个节点上的能力;

可以理解为:在节点上设置了五点之后,你创建资源时,可以无视这个节点上的污点规则,也就可以在有污点的节点上创建资源;

假设:一个节点上有两个污点,但是你创建pod的时候,还想要在这个节点上创建,那么你就需要再资源清单中,写入"容忍这两个污点",才会创建成功;

2,污点容忍案例

· 给k8s233创建两个污点

[root@k8s231 dns]# kubectl taint node k8s233 k8s=xinjizhiwa:NoSchedule

node/k8s233 tainted

[root@k8s231 dns]# kubectl taint node k8s233 k8s=xinjizhiwa:NoExecute --overwrite

node/k8s233 modified

· 编辑一个正常的资源清单

[root@k8s231 dns]# cat deploy.yaml

apiVersion: apps/v1

kind: Deployment

metadata:

name: dm01

spec:

replicas: 10

selector:

matchLabels:

k8s: k8s

template:

metadata:

labels:

k8s: k8s

spec:

containers:

  • name: c

image: nginx:1.20.1-alpine

ports:

  • name: p

containerPort: 80
[root@k8s231 dns]# kubectl apply -f deploy.yaml

此时查看pod都在k8s232中,因为另外两个节点上都有污点,不允许创建

· 修改资源清单,设置污点容忍

[root@k8s231 dns]# cat deploy.yaml

apiVersion: apps/v1

kind: Deployment

metadata:

name: dm01

spec:

replicas: 10

selector:

matchLabels:

k8s: k8s

template:

metadata:

labels:

k8s: k8s

spec:

#设置污点容忍

tolerations:

#指定污点的key

#value:

#指定污点的类型

effect: NoSchedule

#设置key和value的关系

#--Exists:key匹配所有value

#--Equsl:key和value必须全部匹配到

operator: Exists

  • key: k8s

value: xinjizhiwa

effect: NoExecute

operator: Equal

  • key: k8s

value: xinjizhiwa

effect: NoSchedule

operator: Equal

containers:

  • name: c

image: nginx:1.20.1-alpine

ports:

  • name: p

containerPort: 80

重新创建资源

[root@k8s231 dns]# kubectl apply -f deploy.yaml

· 此时查看pod

发现,即便k8s231和k8s233都有污点,但是也都可以创建pod了;

[root@k8s231 dns]# kubectl get pods -o wide

3,无视所有污点

[root@k8s231 dns]# cat deploy.yaml

apiVersion: apps/v1

kind: Deployment

metadata:

name: dm01

spec:

replicas: 10

selector:

matchLabels:

k8s: k8s

template:

metadata:

labels:

k8s: k8s

spec:

#设置污点容忍

tolerations:

#不写污点的key的相关属性表示匹配所有key

  • operator: Exists

containers:

  • name: c

image: nginx:1.20.1-alpine

ports:

  • name: p

containerPort: 80

至此,pod调度的污点和污点容忍,学习完毕;

相关推荐
wclass-zhengge22 分钟前
K8S篇(基本介绍)
云原生·容器·kubernetes
颜淡慕潇28 分钟前
【K8S问题系列 |1 】Kubernetes 中 NodePort 类型的 Service 无法访问【已解决】
后端·云原生·容器·kubernetes·问题解决
川石课堂软件测试2 小时前
性能测试|docker容器下搭建JMeter+Grafana+Influxdb监控可视化平台
运维·javascript·深度学习·jmeter·docker·容器·grafana
昌sit!9 小时前
K8S node节点没有相应的pod镜像运行故障处理办法
云原生·容器·kubernetes
A ?Charis11 小时前
Gitlab-runner running on Kubernetes - hostAliases
容器·kubernetes·gitlab
wclass-zhengge12 小时前
Docker篇(Docker Compose)
运维·docker·容器
茶馆大橘12 小时前
微服务系列五:避免雪崩问题的限流、隔离、熔断措施
java·jmeter·spring cloud·微服务·云原生·架构·sentinel
北漂IT民工_程序员_ZG12 小时前
k8s集群安装(minikube)
云原生·容器·kubernetes
coding侠客12 小时前
揭秘!微服务架构下,Apollo 配置中心凭啥扮演关键角色?
微服务·云原生·架构
梦魇梦狸º15 小时前
腾讯轻量云服务器docker拉取不到镜像的问题:拉取超时
docker·容器·github