在K8S中,节点状态notReady如何排查?

在kubernetes集群中,当一个节点(Node)的状态变为NotReady时,意味着该节点可能无法运行Pod或不能正确相应kubernetes控制平面。排查NotReady节点通常涉及以下步骤:

1. 获取基本信息

  • 使用kubectl命令行工具获取节点状态:
bash 复制代码
kubectl get nodes
  • 检查具体出现问题的节点详情:
bash 复制代码
kubectl describe node <node-name>

2. 检查事件(Event)

  • 查看节点的事件以了解与NotReady状态相关联的具体错误:
bash 复制代码
kubectl describe node <node-name> | grep -A 10 'Conditions:'

3. 条件(Conditions)分析

  • 在输出中关注Conditions不分,特别时Ready状态及其原因和消息。
  • 不同原因可能包括但不限于:
    • 网络问题:如节点与master通信中断,CNI网络插件问题等。
    • kubelet问题:kubelet进程未运行或配置错误。
    • 容器运行时问题:Docker containerd或其他容器引擎未能启动或报告错误。
    • 资源不足:磁盘空间满、内存或CPU不足等。
    • 节点健康状态探测失败:如kubelet定期向API Server汇报节点状态(通过心跳机制)出现问题

4. 具体排查步骤

  • 网络连通性:确保节点能够正常与集群中的其他组件通信。
  • kubelet服务:检查kubelet服务是否运行正常,以及日志中是否有错误信息。
bash 复制代码
systemctl status kubelet
journalctl -u kubelet -xe
  • 容器运行时:确认容器运行时服务也正在运行,并无错误。
  • 磁盘空间与资源使用 :采用df -hfree -m进行检查节点的磁盘空间和系统资源使用情况。
  • 健康检查和PLEG:Kubelet有一个Pod生命周期事件Generator(PLEG),负责监测Pod的生命周期。若PLEG停滞可能会导致节点NotReady,查看kubelet的Pod状态。
  • CNI插件:确认网络插件工作正常,有时网络配置或插件故障也会导致节点NotReady。
  • 操作系统健康:检查操作系统层面是否有内核警告、硬件故障或安全组规则阻止必要的端口通信。

5. 恢复操作

  • 根据排查结果采取相应措施,例如重启Kubelet服务、清理磁盘空间、修复网络配置、更新容器运行时等。
  • 如果需要,也可以尝试将节点从集群中删除并重新加入,已出发重新初始化过程:
bash 复制代码
kubectl drain <node-name> --delete-local-data --force --ignore-daemonsets
kubectl delete node <node-name>
# 确保节点问题已解决后...
kubectl uncordon <node-name>

综上所述:

在实际环境中,排查过程需结合具体情况灵活调整,并可能深入的学习kubernetes的内部工作机制及特定版本的特性。

相关推荐
二宝1521 小时前
黑马商城day4-微服务02
微服务·云原生·架构
wudl55663 小时前
Docker 常用命令
docker·容器·eureka
数据库知识分享者小北3 小时前
云栖重磅|瑶池数据库:从云原生数据底座向“AI就绪”的多模态数据底座演进
数据库·人工智能·云原生
wuyunhang1234564 小时前
Docker----快速入门
docker·容器·架构
liliangcsdn5 小时前
docker环境如何基于python操作mysql关系数据库
docker·容器
java_logo6 小时前
Docker 部署微服务项目保姆级教程
java·运维·docker·微服务·容器·eureka·架构
阿里云云原生7 小时前
Higress v2.1.8:30 项引擎更新 + 4 项控制台更新
云原生
遇见火星9 小时前
Docker入门:快速部署你的第一个Web应用
前端·docker·容器
阿里云云原生10 小时前
移动端性能监控探索:iOS RUM SDK 技术架构与实践
云原生
阿里云云原生10 小时前
Nacos 3.1.0 正式发布,支持 A2A 注册中心与 MCP 注册协议增强
微服务·云原生