k8s worker 节点关机 sts 管理的 pod 无法迁移

背景

1.28.2 版本 k8s 中的一台 worker 节点内存异常,需要关机换内存,正好可以测试一下 pod 的迁移。

发现

deployment 管理的 pod 是能够重新创建飘到其他节点上的,但是 statefulset 管理的 pod 一直处于 Terminating 状态无法迁移,pod 就一直无法提供服务。官方文档中解释如下:

当某节点关闭但 kubelet 的节点关闭管理器未检测到这一事件时, 在那个已关闭节点上、属于 StatefulSet 的 Pod 将停滞于终止状态,并且不能移动到新的运行节点上。 这是因为已关闭节点上的 kubelet 已不存在,亦无法删除 Pod, 因此 StatefulSet 无法创建同名的新 Pod。 如果 Pod 使用了卷,则 VolumeAttachments 不会从原来的已关闭节点上删除, 因此这些 Pod 所使用的卷也无法挂接到新的运行节点上。 所以,那些以 StatefulSet 形式运行的应用无法正常工作。 如果原来的已关闭节点被恢复,kubelet 将删除 Pod,新的 Pod 将被在不同的运行节点上创建。 如果原来的已关闭节点没有被恢复,那些在已关闭节点上的 Pod 将永远滞留在终止状态

解决办法

官方提供的解决办法是给该节点添加一个 NoExecute 的污点。尝试发现并不行,而且 node 长期处于 NotReady,node control 会给该节点自动添加 NOExecute 的污点。

有尝试过升级 k8s 版本到 1.31.1,发现也并不行。

后续搜索发现可以强制删除节点上的 pod,原理是强制删除不需要等待该节点上的 kubelet 的响应。

bash 复制代码
kubectl delete pod "pod_name" -n "namespace" --grace-period=0 --force

我们可以创建 deployment 来定时查找长期处于 Terminating 状态的 pod,或者说是 cronJob。

编写查询并删除 pod 的脚本 configmap:

bash 复制代码
apiVersion: v1
kind: ConfigMap
metadata:
  name: delete-terminating-pods-script
  namespace: ops  
data:
  delete_terminating_pods.sh: |
    #!/bin/bash

    temp_file="/tmp/terminating_pods.txt"
    > "$temp_file"
    while true; do
        kubectl get pod -A | grep Terminating | awk '{print $1,$2}' > "$temp_file"
        sleep 60

        kubectl get pod -A | grep Terminating | awk '{print $1,$2}'| while read namespace pod_name; do
            if grep -q "$namespace $pod_name" "$temp_file"; then  #避免删除优雅退出的 pod
                kubectl delete pod "$pod_name" -n "$namespace" --grace-period=0 --force
            fi
        done

        > "$temp_file"
        sleep 60
    done

创建一个 ServiceAccount 并给予权限

bash 复制代码
apiVersion: v1
kind: ServiceAccount
metadata:
  name: delete-terminating-pods-sa
  namespace: ops
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: pod-deleter
rules:
- apiGroups: [""]
  resources: ["pods"]
  verbs: ["get", "list", "delete"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: delete-terminating-pods-crb
subjects:
- kind: ServiceAccount
  name: delete-terminating-pods-sa
  namespace: ops
roleRef:
  kind: ClusterRole
  name: pod-deleter
  apiGroup: rbac.authorization.k8s.io

编写一个 deployment,kubectl 的版本与自己集群版本相同即可

bash 复制代码
apiVersion: apps/v1
kind: Deployment
metadata:
  name: kubectl
  namespace: ops
spec:
  replicas: 1
  selector:
    matchLabels:
      app: kubectl
  template:
    metadata:
      labels:
        app: kubectl
    spec:
      serviceAccountName: delete-terminating-pods-sa
      containers:
        - name: kubectl-container
          image: bitnami/kubectl:1.31.1
          command: ["/bin/bash", "/scripts/delete_terminating_pods.sh"]
          volumeMounts:
          - name: script-volume
            mountPath: /scripts
      volumes:
      - name: script-volume
        configMap:
          name: delete-terminating-pods-script

到此就可以自动发现并删除 节点意外情况 sts 管理的 pod 了,有更好的办法评论区可以留言。

相关推荐
斯普信专业组2 小时前
K8s企业应用之容器化迁移
云原生·容器·kubernetes
颜淡慕潇2 小时前
【K8S系列】Kubernetes 中 Service IP 分配 问题及解决方案【已解决】
后端·云原生·容器·kubernetes
陈小肚2 小时前
k8s 1.28.2 集群部署 Thanos 对接 MinIO 实现 Prometheus 数据长期存储
kubernetes·prometheus·thanos
YCyjs3 小时前
Kubeadm搭建k8s
容器·kubernetes
摇曳 *3 小时前
Kubernetes:(三)Kubeadm搭建K8s 1.20集群
云原生·容器·kubernetes
网络笨猪3 小时前
K8S 容器可视化管理工具-kuboard 监控管理工具搭建
云原生·容器·kubernetes
陈小肚3 小时前
k8s 1.28.2 集群部署 NFS server 和 NFS Subdir External Provisioner
云原生·容器·kubernetes
ps酷教程4 小时前
docker基础篇(尚硅谷)
运维·docker·容器
CloudJourney6 小时前
初始Docker
运维·docker·容器
小森饭6 小时前
Kubernetes运行大数据组件-运行hive
大数据·hive·云原生·kubernetes