11.6.k8s实战-节点扩缩容

目录

一,需求描述

二、集群缩容-节点下线

1,节点下线案例说明

2,查看现有节点

3,查看所有名称空间下的pod

​编辑4,驱逐下线节点的pod

5,驱逐后再次查看pod

6,驱逐pod后再次查看节点信息

7,给要下线的节点打上污点

8,再次查看要下线节点的pod

9,下线节点重置

9.1.需要到要下线的节点中执行"重置"命令,重置下线节点

[9.2. 删除要下线节点的cni网络目录](#9.2. 删除要下线节点的cni网络目录)

9.3.清空路由规则

9.4.查看打印规则

10,删除掉节点

三、集群扩群-节点上线

1,给上线节点安装必要组件

2,master节点创建token

3,master查看刚刚创建的token

4,新节点使用token加入集群

5,验证是否成功


一,需求描述

生产环境中,对于k8s已有环境进行扩容和缩容是比较常见的操作,比如现有k8s集群资源不足,就需要扩容节点,就是将物理机配置加入k8s集群node;

或者说当前k8s集群工作不饱和,有大量空闲的机器资源,闲置浪费严重,所以需要缩容,就是将物理机配置退出k8s集群node;

二、集群缩容-节点下线

我们从总体架构中(第一天就让大家背下来了,不知道的回去背下来)知道,k8s集群监控一个节点的cpu、内存、磁盘空间、文件系统inode等资源是依靠kubelet组件;

当这些资源中的一个或者多个达到特定的消耗水平(消耗到一定程度了),kubelet就会主动将节点上的一个或者多个pod强制进行"驱逐",以防止当前node节点资源无法正常分配,而引发内存溢出(OOM);

1,节点下线案例说明

我们需要先把要下线的node节点中的pod驱逐,模拟下线节点(node节点可能因为硬件故障或者其他原因,有下线的需求)

2,查看现有节点

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl get nodes 

3,查看所有名称空间下的pod

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl get pods -o wide -A

4,驱逐下线节点的pod

驱逐一个节点的所有pod;但是需要排除daemonset资源创建的pod,因为,dadmonset资源是根据节点数量来创建pod的,若不排除,则会驱逐不了;

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl drain k8s2 --ignore-daemonsets

参数介绍

--ignore-daemonsets #daemonset资源不能被驱逐,需要排除,加这个选项参数排除;

--delete-emptydir-data #如果无法驱逐成功,再加这个参数;

5,驱逐后再次查看pod

驱逐pod后,我们会发现,k8s233还存在两个pod;一个是flannel组件还有一个是kube-proxy代理pod;我们不用管这两个没有被驱逐的pod;

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl get pods -o wide -A | grep k8s2

6,驱逐pod后再次查看节点信息

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl get nodes
NAME   STATUS                     ROLES                  AGE   VERSION
k8s1   Ready                      control-plane,master   13d   v1.23.17
k8s2   Ready,SchedulingDisabled   <none>                 13d   v1.23.17

7,给要下线的节点打上污点

因为要将节点下线,避免在下线过程中,有人往这个节点中创建资源,所以保守起见,给它设置个污点;双保险

bash 复制代码
kubectl taint node k8s2 k8s=oslee:NoExecute

8,再次查看要下线节点的pod

这个时候会发现,仅剩下kube-proxy了,你就可以将节点直接下线了;

bash 复制代码
[root@k8s1 k8s-yaml]#  kubectl get pods -o wide -A | grep k8s2

9,下线节点重置

9.1.需要到要下线的节点中执行"重置"命令,重置下线节点

bash 复制代码
[root@k8s2 ~]# kubeadm reset -f

9.2. 删除要下线节点的cni网络目录

bash 复制代码
[root@k8s2 ~]# rm -rf /etc/cni/net.d

9.3.清空路由规则

bash 复制代码
[root@k8s2 ~]# iptables -F

9.4.查看打印规则

bash 复制代码
iptables-save

10,删除掉节点

注意,master节点执行

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl delete nodes k8s2
node "k8s2" deleted

# 验证
[root@k8s1 k8s-yaml]# kubectl get nodes
NAME   STATUS   ROLES                  AGE   VERSION
k8s1   Ready    control-plane,master   13d   v1.23.17

温馨提示:

1,当我们直接下线一个节点的时候,该节点的pod将不会立刻被检测出来故障,大概5分钟左右才能将损坏的pod在其他节点中创建,但是再次之前,会优先发现该的状态为"Notready";

2,综上所述,我们生产环境中应该监控nodes的状态,当然,pods重启次数也需要关注哦;所以说,要报账pod业务正常运行,必须监控nodes的状态;

三、集群扩群-节点上线

1,给上线节点安装必要组件

可参考:3.2.k8s搭建-kubeadm_为docker做linux内核转发-CSDN博客

2,master节点创建token

bash 复制代码
kubeadm token create --print-join-command

参数说明

--print-join-command #打进加入token的命令

--ttl 0 #token的过期时间,0代表无限期;

#################################

#token的名称规则:

[a-z0-9]{6})\\.([a-z0-9]{16}

3,master查看刚刚创建的token

bash 复制代码
kubeadm token list

4,新节点使用token加入集群

在新节点执行

bash 复制代码
kubeadm join 192.168.11.11:6443 --token 1kum3s.20vvoag1zjp88a7e --discovery-token-ca-cert-hash sha256:40e957a9fe26974447bd43a8e0d56495fd0c2642a2e93bc6b9c042e3baead7a5

5,验证是否成功

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl get nodes 
NAME   STATUS   ROLES                  AGE     VERSION
k8s1   Ready    control-plane,master   13d     v1.23.17
k8s2   Ready    <none>                 2m15s   v1.23.17
相关推荐
aherhuo23 分钟前
kubevirt网络
linux·云原生·容器·kubernetes
catoop1 小时前
K8s 无头服务(Headless Service)
云原生·容器·kubernetes
liuxuzxx2 小时前
1.24.1-Istio安装
kubernetes·istio·service mesh
道一云黑板报3 小时前
Flink集群批作业实践:七析BI批作业执行
大数据·分布式·数据分析·flink·kubernetes
运维小文3 小时前
K8S中的PV、PVC介绍和使用
docker·云原生·容器·kubernetes·存储
ζั͡山 ั͡有扶苏 ั͡✾4 小时前
Kubeadm+Containerd部署k8s(v1.28.2)集群(非高可用版)
云原生·容器·kubernetes
Hadoop_Liang4 小时前
Kubernetes ConfigMap的创建与使用
云原生·容器·kubernetes
年薪丰厚13 小时前
如何在K8S集群中查看和操作Pod内的文件?
docker·云原生·容器·kubernetes·k8s·container
zhangj112513 小时前
K8S Ingress 服务配置步骤说明
云原生·容器·kubernetes
岁月变迁呀13 小时前
kubeadm搭建k8s集群
云原生·容器·kubernetes