k8s集群容器创建报failed to write 10087 to cgroup.procs处理

一.问题现象

k8s集群业务最近反馈在业务pod部署或者更新的时候,频繁出现failed to write 10087 to cgroup.procs

具体报错信息如下

47m Warning Unhealthy pod/cwdz-f4b54c9d5-nrzb4 Readiness probe failed: OCI runtime exec failed: exec failed: container_linux.go:348: starting container process caused "process_linux.go:90: adding pid 10087 to cgroups caused \"failed to write 10087 to cgroup.procs: write /sys/fs/cgroup/cpu,cpuacct/kubepods.slice/kubepods-burstable.slice/kubepods-burstable-podaa6efa94_5aef_4f5a_8a0a_eb73a719bfea.slice/docker-47dcf1949ef1792e7b4629c7b333b75e07f3f49c9ed30fca33919e4beff779bd.scope/cgroup.procs: invalid argument\"": unknown

11m Warning Unhealthy pod/cwdz-f4b54c9d5-nrzb4 Readiness probe failed: OCI runtime exec failed: exec failed: container_linux.go:348: starting container process caused "process_linux.go:90: adding pid 30822 to cgroups caused \"failed to write 30822 to cgroup.procs: write /sys/fs/cgroup/cpu,cpuacct/kubepods.slice/kubepods-burstable.slice/kubepods-burstable-podaa6efa94_5aef_4f5a_8a0a_eb73a719bfea.slice/docker-47dcf1949ef1792e7b4629c7b333b75e07f3f49c9ed30fca33919e4beff779bd.scope/cgroup.procs: invalid argument\"": unknown

58m Warning Unhealthy pod/ydapp2015-c4db49687-lfrhh Readiness probe failed: OCI runtime exec failed: exec failed: container_linux.go:348: starting container process caused "process_linux.go:90: adding pid 7792 to cgroups caused \"failed to write 7792 to cgroup.procs: write /sys/fs/cgroup/cpu,cpuacct/kubepods.slice/kubepods-burstable.slice/kubepods-burstable-pod89607629_8b92_418c_b56a_d781267af97e.slice/docker-60aedbc30af5b28caf0e89e00393c07df9a281330d2dda7d349e5c8692b2d521.scope/cgroup.procs: invalid argument\"": unknown

二.原因分析

这个错误本质上和 Linux cgroup 子系统的限制有关,常见原因包括

  1. cgroup 版本不兼容 :你的节点可能混合使用了 cgroup v1 和 v2,或者容器运行时(Docker/containerd)的 cgroup 驱动与 Kubernetes 节点的 cgroup 驱动不匹配(比如节点用 systemd 而容器运行时用 cgroupfs)。
  2. 资源限制 / 权限问题:Pod 的 CPU / 内存资源限制配置不合理,或 cgroup 目录的权限被篡改,导致无法写入 PID。
  3. 就绪探针配置不当:探针的执行命令过于复杂、执行频率过高,或探针超时时间过短,加剧了 cgroup 操作的失败概率。

三.解决办法

1.临时缓解方式:重启问题Pod

复制代码
# 删除异常 Pod(Deployment 会自动重建)
kubectl delete pod cwdz-f4b54c9d5-nrzb4

但由于出现问题的Pod的比较多,在前期未完全定位原因的情况下的临时缓解措施

2.检查cgroup的兼容性,并修复兼容匹配问题(最终原因)

  • 检查kubelet的cgroup驱动

    查看 kubelet 配置(不同集群部署方式路径可能不同)

    cat /var/lib/kubelet/config.yaml | grep cgroupDriver

    或直接查看 kubelet 启动参数

    ps -ef | grep kubelet | grep -i cgroup
    #查看 Docker 的 cgroup 驱动
    docker info | grep -i cgroup

经检查发现在/var/lib/kubelet/config配置的 cgroupDrivercgroupfs,而kubelet的启动参数又指定了--cgroup-driver=systemd,Docker 的 cgroup 驱动 是 systemd。

相当于 kubelet 同时被配置了两种不同的 cgroup 驱动(配置文件里的 cgroupfs + 启动参数里的 systemd),这种冲突会导致 kubelet 与容器运行时(Docker)的 cgroup 管理逻辑不一致,进而触发 cgroup.procs 写入失败的错误。

  • 解决办法是需要统一 kubelet 的 cgroup 驱动配置(保持和 Docker 一致的 systemd

    #修改 kubelet 配置文件,把 cgroupDriver 改成 systemd
    vi /var/lib/kubelet/config.yaml
    #将其中的 cgroupDriver: cgroupfs 改为:systemd
    cgroupDriver: systemd

    #重启kubelet
    systemctl restart kubelet

  • 重启后,再次检查 kubelet 的 cgroup 驱动是否统一:

    检查配置文件

    cat /var/lib/kubelet/config.yaml | grep cgroupDriver

    检查启动参数(确认无冲突)

    ps -ef | grep kubelet | grep -i cgroup

正常情况下,两者都应该显示 systemd。完成后,建议删除之前异常的 Pod(kubectl delete pod cwdz-f4b54c9d5-nrzb4),让 Deployment 重建 Pod,就绪探针的问题应该会解决。

四.批量执行

由于k8s集群涉及的node节点较多,如果一台台去执行,很浪费时间,可通过ansible批量执行

复制代码
#查看kubelet配置文件的cgroup
ansible k8s -m shell -a 'cat /var/lib/kubelet/config.yaml | grep cgroupDriver'
#查看kubelet启动参数的cgroup
ansible k8s -m shell -a 'ps -ef | grep kubelet | grep -i cgroup'
#查看docker的cgroup
ansible k8s -m shell -a 'docker info | grep -i cgroup'

#批量修改/var/lib/kubelet/config.yaml
ansible k8s  -m lineinfile   -a "path=/var/lib/kubelet/config.yaml \
  regexp='^cgroupDriver:' \
  line='cgroupDriver: systemd' \
  backup=yes"

#重启kubelet服务
ansible k8s  -m systemd \
  -a "name=kubelet state=restarted daemon_reload=yes"

批量修改的backup=yes 会在修改前生成 .bak 后缀的备份文件,若修改出错可通过 cp /var/lib/kubelet/config.yaml.bak-$date /var/lib/kubelet/config.yaml 恢复,恢复后再重启kubelet即可

相关推荐
Hui Baby2 小时前
海豹云创建K8S集群
云原生·容器·kubernetes
柠檬汁Dev2 小时前
这套云原生开发工作流,把上线时间从1天缩短到3分钟
云原生
xujiangyan_2 小时前
k8s中的pod管理及其优化
linux·容器·kubernetes
2301_787328492 小时前
36.docker swarm
运维·docker·容器
xujiangyan_3 小时前
K8s控制器:管理Pod副本的智能管家
docker·容器·kubernetes
yBmZlQzJ11 小时前
财运到内网穿透域名解析技术机制与中立评估
运维·经验分享·docker·容器·1024程序员节
sim202012 小时前
把某个pod固定到某个节点
kubernetes
yBmZlQzJ13 小时前
内网穿透工具通过端口转发实现内外网通信
运维·经验分享·docker·容器·1024程序员节
DeepHacking13 小时前
Overleaf 本地Docker部署
运维·docker·容器