spark history server异常

现象:spark 日志文件突然新增了很多.hprof文件,

查找日志spark配置参数spark_log_dir进入日志目录:

查看historyServer日志:

bash 复制代码
Spark Command: /usr/lib/jvm/java-1.8.0/bin/java -cp /opt/apps/JINDOSDK/jindosdk-current/lib/*:/etc/taihao-apps/spark-conf/:/opt/apps/SPARK3/spark-current/jars/*:/etc/taihao-apps/hadoop-conf/ -XX:+ExitOnOutOfMemoryError -XX:OnOutOfMemoryError=kill -9 %p -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/var/log/taihao-apps/spark/ -Dlog4j.configuration=file:/etc/taihao-apps/spark-conf/spark-daemon-log4j.properties -Dspark.log.dir=/var/log/taihao-apps/spark -Dspark.log.file=spark-history-server.log -Xloggc:/var/log/taihao-apps/spark/spark-history-gc.log -XX:+IgnoreUnrecognizedVMOptions -verbose:gc -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -XX:+PrintGCDateStamps -XX:+UseGCLogFileRotation -XX:NumberOfGCLogFiles=5 -XX:GCLogFileSize=128M -Xmx1g org.apache.spark.deploy.history.HistoryServer
========================================
java.lang.OutOfMemoryError: GC overhead limit exceeded
Dumping heap to /var/log/taihao-apps/spark/java_pid562312.hprof ...
Heap dump file created [1038934719 bytes in 4.457 secs]
#
# java.lang.OutOfMemoryError: GC overhead limit exceeded
# -XX:OnOutOfMemoryError="kill -9 %p"
#   Executing /bin/sh -c "kill -9 562312"...
(END)

发现是history Server服务一直启动oom异常

重启一下:

bash 复制代码
yarn --daemon start timelineserver

或者:
yarn-daemon start timelineserver

重启无效,

定位配置参数发现spark历史任务日志太多,一直没清理

修改配置参数:

bash 复制代码
spark.history.fs.cleaner.enabled = true

spark_history_daemon_memory = 8g

spark_thrift_daemon_memory = 4g

成功

参考链接:
https://blog.csdn.net/Mrerlou/article/details/121405408
https://www.cnblogs.com/lemonu/p/13901203.html
https://www.cnblogs.com/nortingHome/p/13984217.html

相关推荐
淡酒交魂1 小时前
「Flink」业务搭建方法总结
大数据·数据挖掘·数据分析
mask哥1 小时前
详解flink java基础(一)
java·大数据·微服务·flink·实时计算·领域驱动
TDengine (老段)1 小时前
TDengine IDMP 高级功能(4. 元素引用)
大数据·数据库·人工智能·物联网·数据分析·时序数据库·tdengine
livemetee2 小时前
Flink2.0学习笔记:Flink服务器搭建与flink作业提交
大数据·笔记·学习·flink
zhang98800003 小时前
储能领域大数据平台的设计中如何使用 Hadoop、Spark、Flink 等组件实现数据采集、清洗、存储及实时 / 离线计算,支持储能系统分析与预测
大数据·hadoop·spark
老蒋新思维4 小时前
存量竞争下的破局之道:品牌与IP的双引擎策略|创客匠人
大数据·网络·知识付费·创客匠人·知识变现
数据慢想5 小时前
从2小时到3分钟:Spark SQL多维分析性能优化实战
spark
Lx3525 小时前
Hadoop日志分析实战:快速定位问题的技巧
大数据·hadoop
喂完待续8 小时前
【Tech Arch】Hive技术解析:大数据仓库的SQL桥梁
大数据·数据仓库·hive·hadoop·sql·apache