【hive】记一次hiveserver内存溢出排查,线程池未正确关闭导致

一、使用 MemoryAnalyzer软件打开hprof文件

很大有30G,win内存24GB,不用担心可以打开,ma软件能够生成索引文件,逐块分析内存,如下图。

大约需要4小时。

overview中开不到具体信息。

二、使用Leak Suspects功能继续分析

竟然是classloader和jarfile
9,907,656,360 (46.19%) /1024/1024/1024=9.2GB。

hive和hadoop的jar包加在一起好像都没有这么大。

点开jarfile看看,没有具体内容信息。

三、使用Top Components分析

具体看看:
同一jar为什么会在内存中,经过查询资料后发现,hive每个任务的jar是相互隔离的。就是使用的不同classloader,加载所有的jar包。即使同一个class被不同的classloader加载,jvm也不认为是同一个类。这样就能避免不同用户UDF函数中定义同名类的冲突了。

下图中的展开后都是这个jar auth-adapter-1.0.0.jar,同一个jar被加载到内存很多次。

怎么会有这个多jar文件呢,肯定有问题。1400万个jar被加载。

随意找个jarfile看看他的GC root在哪里,导致其无法被GC回收。

是个线程,就是自己写的hive插件的线程池启动的线程。排查自己代码吧。

找到自己的线程池。

参考文章:
线程池与垃圾回收(GC)
JAVA 多线程并发编程 - 避坑指南
Memory Analyzer内存泄漏OOM基础概念

自己定义的线程池,其中NamedThreadFactory没有自定义classloader,其默认使用父线程的classloader,随类启动,没有定义shutdown,本来以为hive只有一个classloader,分析后发现在hiveserver2端,每个任务都有一个classloader。任务虽然结束了,但是线程池的线程没有被关闭。导致其持有的父线程的classloader,仍然被链接,无法被GC回收。

java 复制代码
    val pool: ExecutorService = new ThreadPoolExecutor(
      1, // 核心线程数
      2, // 最大线程数
      20, // 非核心线程的空闲超时时间(秒)
      TimeUnit.SECONDS, // 时间单位
      new ArrayBlockingQueue(2), // 工作队列
      new NamedThreadFactory(prefix, true), // 自定义线程工厂
      new ThreadPoolExecutor.DiscardPolicy() // 拒绝策略
    )

同理jarfile是因classloader加载的,classloader内存占用也是相同的原因。

因此,hive的每个任务执行结束后都应该调用 pool.shutdown()

相关推荐
isfox12 小时前
Google GFS 深度解析:分布式文件系统的开山之作
大数据·hadoop
鼠鼠我捏,要死了捏15 小时前
Hadoop NameNode内存泄漏与GC停顿问题排查与解决方案
hadoop·问题排查·jvm优化
嘉禾望岗50318 小时前
Yarn介绍与HA搭建
大数据·hadoop·yarn
IT研究室18 小时前
大数据毕业设计选题推荐-基于大数据的国家药品采集药品数据可视化分析系统-Spark-Hadoop-Bigdata
大数据·hadoop·信息可视化·spark·毕业设计·数据可视化·bigdata
Lx35219 小时前
Hadoop性能瓶颈分析:从JVM到磁盘IO的全链路优化
大数据·hadoop
DashingGuy20 小时前
数仓建模理论
数据仓库
BYSJMG1 天前
计算机毕业设计选题:基于Spark+Hadoop的健康饮食营养数据分析系统【源码+文档+调试】
大数据·vue.js·hadoop·分布式·spark·django·课程设计
励志成为糕手1 天前
Hadoop进程:深入理解分布式计算引擎的核心机制
大数据·hadoop·分布式·mapreduce·yarn
像豆芽一样优秀1 天前
Hive和Flink数据倾斜问题
大数据·数据仓库·hive·hadoop·flink
计算机毕业设计木哥1 天前
计算机毕业设计 基于Python+Django的医疗数据分析系统
开发语言·hadoop·后端·python·spark·django·课程设计