11.6.k8s实战-节点扩缩容

目录

一,需求描述

二、集群缩容-节点下线

1,节点下线案例说明

2,查看现有节点

3,查看所有名称空间下的pod

​编辑4,驱逐下线节点的pod

5,驱逐后再次查看pod

6,驱逐pod后再次查看节点信息

7,给要下线的节点打上污点

8,再次查看要下线节点的pod

9,下线节点重置

9.1.需要到要下线的节点中执行"重置"命令,重置下线节点

[9.2. 删除要下线节点的cni网络目录](#9.2. 删除要下线节点的cni网络目录)

9.3.清空路由规则

9.4.查看打印规则

10,删除掉节点

三、集群扩群-节点上线

1,给上线节点安装必要组件

2,master节点创建token

3,master查看刚刚创建的token

4,新节点使用token加入集群

5,验证是否成功


一,需求描述

生产环境中,对于k8s已有环境进行扩容和缩容是比较常见的操作,比如现有k8s集群资源不足,就需要扩容节点,就是将物理机配置加入k8s集群node;

或者说当前k8s集群工作不饱和,有大量空闲的机器资源,闲置浪费严重,所以需要缩容,就是将物理机配置退出k8s集群node;

二、集群缩容-节点下线

我们从总体架构中(第一天就让大家背下来了,不知道的回去背下来)知道,k8s集群监控一个节点的cpu、内存、磁盘空间、文件系统inode等资源是依靠kubelet组件;

当这些资源中的一个或者多个达到特定的消耗水平(消耗到一定程度了),kubelet就会主动将节点上的一个或者多个pod强制进行"驱逐",以防止当前node节点资源无法正常分配,而引发内存溢出(OOM);

1,节点下线案例说明

我们需要先把要下线的node节点中的pod驱逐,模拟下线节点(node节点可能因为硬件故障或者其他原因,有下线的需求)

2,查看现有节点

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl get nodes 

3,查看所有名称空间下的pod

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl get pods -o wide -A

4,驱逐下线节点的pod

驱逐一个节点的所有pod;但是需要排除daemonset资源创建的pod,因为,dadmonset资源是根据节点数量来创建pod的,若不排除,则会驱逐不了;

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl drain k8s2 --ignore-daemonsets

参数介绍

--ignore-daemonsets #daemonset资源不能被驱逐,需要排除,加这个选项参数排除;

--delete-emptydir-data #如果无法驱逐成功,再加这个参数;

5,驱逐后再次查看pod

驱逐pod后,我们会发现,k8s233还存在两个pod;一个是flannel组件还有一个是kube-proxy代理pod;我们不用管这两个没有被驱逐的pod;

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl get pods -o wide -A | grep k8s2

6,驱逐pod后再次查看节点信息

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl get nodes
NAME   STATUS                     ROLES                  AGE   VERSION
k8s1   Ready                      control-plane,master   13d   v1.23.17
k8s2   Ready,SchedulingDisabled   <none>                 13d   v1.23.17

7,给要下线的节点打上污点

因为要将节点下线,避免在下线过程中,有人往这个节点中创建资源,所以保守起见,给它设置个污点;双保险

bash 复制代码
kubectl taint node k8s2 k8s=oslee:NoExecute

8,再次查看要下线节点的pod

这个时候会发现,仅剩下kube-proxy了,你就可以将节点直接下线了;

bash 复制代码
[root@k8s1 k8s-yaml]#  kubectl get pods -o wide -A | grep k8s2

9,下线节点重置

9.1.需要到要下线的节点中执行"重置"命令,重置下线节点

bash 复制代码
[root@k8s2 ~]# kubeadm reset -f

9.2. 删除要下线节点的cni网络目录

bash 复制代码
[root@k8s2 ~]# rm -rf /etc/cni/net.d

9.3.清空路由规则

bash 复制代码
[root@k8s2 ~]# iptables -F

9.4.查看打印规则

bash 复制代码
iptables-save

10,删除掉节点

注意,master节点执行

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl delete nodes k8s2
node "k8s2" deleted

# 验证
[root@k8s1 k8s-yaml]# kubectl get nodes
NAME   STATUS   ROLES                  AGE   VERSION
k8s1   Ready    control-plane,master   13d   v1.23.17

温馨提示:

1,当我们直接下线一个节点的时候,该节点的pod将不会立刻被检测出来故障,大概5分钟左右才能将损坏的pod在其他节点中创建,但是再次之前,会优先发现该的状态为"Notready";

2,综上所述,我们生产环境中应该监控nodes的状态,当然,pods重启次数也需要关注哦;所以说,要报账pod业务正常运行,必须监控nodes的状态;

三、集群扩群-节点上线

1,给上线节点安装必要组件

可参考:3.2.k8s搭建-kubeadm_为docker做linux内核转发-CSDN博客

2,master节点创建token

bash 复制代码
kubeadm token create --print-join-command

参数说明

--print-join-command #打进加入token的命令

--ttl 0 #token的过期时间,0代表无限期;

#################################

#token的名称规则:

[a-z0-9]{6})\\.([a-z0-9]{16}

3,master查看刚刚创建的token

bash 复制代码
kubeadm token list

4,新节点使用token加入集群

在新节点执行

bash 复制代码
kubeadm join 192.168.11.11:6443 --token 1kum3s.20vvoag1zjp88a7e --discovery-token-ca-cert-hash sha256:40e957a9fe26974447bd43a8e0d56495fd0c2642a2e93bc6b9c042e3baead7a5

5,验证是否成功

bash 复制代码
[root@k8s1 k8s-yaml]# kubectl get nodes 
NAME   STATUS   ROLES                  AGE     VERSION
k8s1   Ready    control-plane,master   13d     v1.23.17
k8s2   Ready    <none>                 2m15s   v1.23.17
相关推荐
景天科技苑3 小时前
【云原生开发】K8S多集群资源管理平台架构设计
云原生·容器·kubernetes·k8s·云原生开发·k8s管理系统
wclass-zhengge4 小时前
K8S篇(基本介绍)
云原生·容器·kubernetes
颜淡慕潇4 小时前
【K8S问题系列 |1 】Kubernetes 中 NodePort 类型的 Service 无法访问【已解决】
后端·云原生·容器·kubernetes·问题解决
昌sit!12 小时前
K8S node节点没有相应的pod镜像运行故障处理办法
云原生·容器·kubernetes
A ?Charis15 小时前
Gitlab-runner running on Kubernetes - hostAliases
容器·kubernetes·gitlab
北漂IT民工_程序员_ZG16 小时前
k8s集群安装(minikube)
云原生·容器·kubernetes
2301_806131361 天前
Kubernetes的基本构建块和最小可调度单元pod-0
云原生·容器·kubernetes
SilentCodeY1 天前
containerd配置私有仓库registry
容器·kubernetes·containerd·镜像·crictl
binqian1 天前
【k8s】ClusterIP能http访问,但是不能ping 的原因
http·容器·kubernetes
探索云原生1 天前
GPU 环境搭建指南:如何在裸机、Docker、K8s 等环境中使用 GPU
ai·云原生·kubernetes·go·gpu