记录一次典型oom的处理过程

背景

有同学反馈收到应用RT的报警,其中的流量都来自于网关集群中的一台机器。因为负责网关,就上去看了下并进行排查。整体是一个比较明显的oom,这里只是记录下排查过程,老司机可以略过了。

初步现象

常规步骤,使用top 和jstat -gcutil 能直观的看到在拼命full gc。推测是出现了oom。

初步排查

一开始是用 jmap -histo:live [pid] >a.log 导出当前内存对象,为什么没有直接用jmap -dump:live 也是想偷懒,因为-dump 生成的文件太大,我们的服务器又跑在k8s上面,要拿回本地需要通过ftp 中转,想着能省就省。结果发现这个给后面埋了个大坑。

基于上面的结果,一度怀疑是sentinel 引起的问题。特别是对比了正常的机器上的内存分布

在上面浪费了大量时间,后面回过头看其实ConcurrentHashMap 占比这么高说明是缓存管理出现了问题。

进一步排查

老老实实用 jmap -dump:live,format=b,file=xxx.xxx [pid] 打印出详细的内存堆栈,拿到本地后用 IBM HeapAnalyzer(比较好用) 或者MAT 打开分析。

从上面比较直观看到出现oom的类。这里只是看到单个的类比较大,从源码上看:

会发现有块缓存没有设置长度和失效时间,这个很可能是导致oom的原因。

相关推荐
Chen不旧5 分钟前
java基于reentrantlock/condition/queue实现阻塞队列
java·开发语言·signal·reentrantlock·await·condition
寒水馨20 分钟前
com.github.oshi : oshi-core 中文文档(中英对照·API·接口·操作手册·全版本)以6.4.0为例,含Maven依赖、jar包、源码
java·后端
拾荒李25 分钟前
虚拟列表进阶-手搓不定高虚拟列表实现
javascript·性能优化
0和1的舞者27 分钟前
SpringBoot日志框架全解析
java·学习·springboot·日志·打印·lombok
小毅&Nora41 分钟前
【Java线程安全实战】② ConcurrentHashMap 源码深度拆解:如何做到高性能并发?
java·安全·多线程
Knight_AL44 分钟前
阿里《Java 开发手册》下的对象构建与赋值规范实践
java·开发语言
步步为营DotNet1 小时前
深入理解.NET 中的IHostedService:后台任务管理的基石
java·网络·.net
独自破碎E1 小时前
Leetcode862和至少为K的最短子数组
java·开发语言
To Be Clean Coder1 小时前
【Spring源码】getBean源码实战(二)
java·后端·spring
qq_317620312 小时前
06:Docker安全加固与性能优化
docker·性能优化·权限控制·安全加固·镜像扫描