记录一次内存溢出

1、查看catalina相关日志,确定关键字相关行号

文件:catalina.out

命令1:cat -n catalina.out |grep -a 'OutOfMemoryError'


与内存溢出相关的如上,每一个行号其实都对应到具体时间点。可以发现,这个范围相符合:

633851  Apr 11, 2024 9:59:02 AM  -- 4月11日
633879  Apr 11, 2024 10:33:20 AM -- 4月11日

2、分析起止行号的日志

java 复制代码
命令2:cat -n catalina.out |tail -n +633500|head -n 400


633838  java.lang.OutOfMemoryError: Java heap space
633839  Dumping heap to /opt/web/oms.xxx.cn/java/java_pid17812.hprof ...

-XX:+HeapDumpOnOutOfMemoryError

-XX:HeapDumpPath=/opt/web/oms.xxx.cn/java

3、jhat,分析获取的.hprof文件

jhat /Users/quanxin/Downloads/java_pid17812.hprof

jhat -J-mx10g /Users/quanxin/Downloads/java_pid17812.hprof

​​​​​​https://www.php.cn/faq/522972.html

4、关键字检索:Xobj$AttrXobj

内存溢出 org.apache.xmlbeans.impl.store.Xobj$AttrXobj

POI直接加载Excel文件导致的线上OOM问题_apache poi读取大的excle哪里容易产生oom-CSDN博客

5、安装mat 定位业务日志

参考5步,链接。使用MemoryAnalyzer加载dump文件, 查看Thread Stack线程栈信息

工具不行,太老了。eclipse下的插件。

安装一直失败,也许mac的原因。还需要对应jdk版本,太麻烦。

6、换个工具试试,JProfiler

如何使用,请自行百度,摸索半小时。

随便找几个看看,全部都定位到。

// at com.xxx.web.oms.controllers.detection.insurance.InsuranceController.add() (line: 1624)

用户操作记录

跟内存溢出的时间,基本吻合。

633851 Apr 11, 2024 9:59:02 AM -- 4月11日

633879 Apr 11, 2024 10:33:20 AM --

7、业务代码与结论

java 复制代码
WFHttpServletRequestWrapper rw = (WFHttpServletRequestWrapper) BeatContext.current().getRequest();
String filename = rw.getFile("fileName").getOriginalFilename();
Workbook wb = FileUtil.getWorkbook(rw, "fileName");

结果:用户导入一个excel,大约40MB,复制了很多空行导致。

相关推荐
天天扭码6 分钟前
五天SpringCloud计划——DAY2之单体架构和微服务架构的选择和转换原则
java·spring cloud·微服务·架构
程序猿进阶7 分钟前
堆外内存泄露排查经历
java·jvm·后端·面试·性能优化·oom·内存泄露
FIN技术铺11 分钟前
Spring Boot框架Starter组件整理
java·spring boot·后端
小曲程序19 分钟前
vue3 封装request请求
java·前端·typescript·vue
陈王卜36 分钟前
django+boostrap实现发布博客权限控制
java·前端·django
小码的头发丝、37 分钟前
Spring Boot 注解
java·spring boot
java亮小白199742 分钟前
Spring循环依赖如何解决的?
java·后端·spring
飞滕人生TYF1 小时前
java Queue 详解
java·队列
武子康1 小时前
大数据-230 离线数仓 - ODS层的构建 Hive处理 UDF 与 SerDe 处理 与 当前总结
java·大数据·数据仓库·hive·hadoop·sql·hdfs
武子康1 小时前
大数据-231 离线数仓 - DWS 层、ADS 层的创建 Hive 执行脚本
java·大数据·数据仓库·hive·hadoop·mysql