记一次K8s故障告警排查(Grafna告警排查)

Grafna告警排查

1. 现象

业务集群k8s节点状态异常【生产环境】,

告警数据如下:

1、告警条件:> 0,当前值:1.0,标签:

node:cluster-xxx-node0002

condition:DiskPressure

2. 排查步骤

2.1明确告警规则

进入Grafna,根据告警规则ID, 查看监控告警规则中配置的规则,明确告警原因

例如:核心逻辑是: 找出所有命名以 cluster开头、且不在 xx可用区的节点,只要这些节点的 任何非 Ready 条件(如 MemoryPressure、DiskPressure、PIDPressure、NetworkUnavailable)的状态为 True,就会触发这个查询结果

2.2查看监控看板(Grafna)

  1. 更改要查询的参数为告警参数,更改告警筛选时间
  2. 搜索异常:DiskPressure,找到图表,查看告警内容
bash 复制代码
情况一:MemoryPressure
含义:内存压力:节点上的可用内存不足。
情况二:DiskPressure
含义:磁盘压力:节点上的磁盘空间不足(通常是根分区或 kubelet 使用的数据分区)。
情况三:PIDPressure
含义:进程号压力:节点上的进程ID(PID)数量即将用尽。
情况四:NetworkUnavailable
含义: 网络不可用:节点的网络配置有问题。

根据步骤1得到的告警原因分析 ,和告警DiskPressure 得出需要查看的监控需要查看磁盘空间看板,得出哪里出问题发现,磁盘压力过大重启了

2.3具体排查磁盘原因

  1. 登录到具体的服务器上,
  2. 分析具体磁盘压力的文件和目录
bash 复制代码
# 从根目录开始,查看各个目录占用磁盘空间
 du -sh *

2.4总结

找出占用磁盘最大的目录,分析目录来源,分析是否K8s 的节点配置不对,一般原因都是磁盘IO占用过大,根据具体业务修改节点配置可解决

相关推荐
工具罗某人12 分钟前
docker compose部署kafka集群搭建
docker·容器·kafka
迷藏49423 分钟前
**eBPF实战进阶:从零构建网络流量监控与过滤系统**在现代云原生架构中,**网络可观测性**和**安全隔离**已成为
java·网络·python·云原生·架构
刘~浪地球33 分钟前
架构设计--事件驱动架构设计与实现(05)
云原生·系统架构·云计算
鬼先生_sir37 分钟前
Zookeeper:从入门到精通
分布式·zookeeper·云原生
marsh02061 小时前
31 openclaw微服务架构实践:构建分布式系统
微服务·ai·云原生·架构·编程·技术
❀͜͡傀儡师1 小时前
k8s部署的Nexus 3 数据库损坏恢复指南:从删除损坏数据库到完整数据重建
数据库·kubernetes·nexus3
开心码农1号2 小时前
k8s中service和ingress的区别和使用
云原生·容器·kubernetes
张3233 小时前
K8s 不部署源代码、不构建应用
kubernetes
L1624763 小时前
Kubernetes 完整学习手册(1 主多从 + 纯 YAML 部署 + 访问原理)
学习·容器·kubernetes
AI精钢5 小时前
为何智能体需要 Dreaming 来优化记忆?
人工智能·云原生·aigc