【hive】记一次hiveserver内存溢出排查,线程池未正确关闭导致

一、使用 MemoryAnalyzer软件打开hprof文件

很大有30G,win内存24GB,不用担心可以打开,ma软件能够生成索引文件,逐块分析内存,如下图。

大约需要4小时。

overview中开不到具体信息。

二、使用Leak Suspects功能继续分析

竟然是classloader和jarfile
9,907,656,360 (46.19%) /1024/1024/1024=9.2GB。

hive和hadoop的jar包加在一起好像都没有这么大。

点开jarfile看看,没有具体内容信息。

三、使用Top Components分析

具体看看:
同一jar为什么会在内存中,经过查询资料后发现,hive每个任务的jar是相互隔离的。就是使用的不同classloader,加载所有的jar包。即使同一个class被不同的classloader加载,jvm也不认为是同一个类。这样就能避免不同用户UDF函数中定义同名类的冲突了。

下图中的展开后都是这个jar auth-adapter-1.0.0.jar,同一个jar被加载到内存很多次。

怎么会有这个多jar文件呢,肯定有问题。1400万个jar被加载。

随意找个jarfile看看他的GC root在哪里,导致其无法被GC回收。

是个线程,就是自己写的hive插件的线程池启动的线程。排查自己代码吧。

找到自己的线程池。

参考文章:
线程池与垃圾回收(GC)
JAVA 多线程并发编程 - 避坑指南
Memory Analyzer内存泄漏OOM基础概念

自己定义的线程池,其中NamedThreadFactory没有自定义classloader,其默认使用父线程的classloader,随类启动,没有定义shutdown,本来以为hive只有一个classloader,分析后发现在hiveserver2端,每个任务都有一个classloader。任务虽然结束了,但是线程池的线程没有被关闭。导致其持有的父线程的classloader,仍然被链接,无法被GC回收。

java 复制代码
    val pool: ExecutorService = new ThreadPoolExecutor(
      1, // 核心线程数
      2, // 最大线程数
      20, // 非核心线程的空闲超时时间(秒)
      TimeUnit.SECONDS, // 时间单位
      new ArrayBlockingQueue(2), // 工作队列
      new NamedThreadFactory(prefix, true), // 自定义线程工厂
      new ThreadPoolExecutor.DiscardPolicy() // 拒绝策略
    )

同理jarfile是因classloader加载的,classloader内存占用也是相同的原因。

因此,hive的每个任务执行结束后都应该调用 pool.shutdown()

相关推荐
尽兴-12 小时前
Lambda架构与Kappa架构对比详解
hadoop·架构·kafka·lambda·kappa
tcoding14 小时前
《Hadoop 权威指南》笔记
大数据·hadoop·笔记
朵朵zeng15 小时前
ETL背景介绍_1:数据孤岛仓库的介绍
数据仓库·etl·原型模式
薇晶晶16 小时前
hadoop
hadoop
方二华17 小时前
数据仓库:企业数据管理的核心引擎
数据仓库
IvanCodes1 天前
五、Hadoop集群部署:从零搭建三节点Hadoop环境(保姆级教程)
大数据·hadoop·分布式
IvanCodes1 天前
六、Hive 分桶
大数据·hive
IvanCodes1 天前
七、深入 Hive DDL:管理表、分区与洞察元数据
数据仓库·hive·hadoop
七七-d1 天前
配置Hadoop集群-上传文件
大数据·hadoop·eclipse
若兰幽竹1 天前
【HBase整合Hive】HBase-1.4.8整合Hive-2.3.3过程
数据库·hive·hbase