spark history server异常

现象:spark 日志文件突然新增了很多.hprof文件,

查找日志spark配置参数spark_log_dir进入日志目录:

查看historyServer日志:

bash 复制代码
Spark Command: /usr/lib/jvm/java-1.8.0/bin/java -cp /opt/apps/JINDOSDK/jindosdk-current/lib/*:/etc/taihao-apps/spark-conf/:/opt/apps/SPARK3/spark-current/jars/*:/etc/taihao-apps/hadoop-conf/ -XX:+ExitOnOutOfMemoryError -XX:OnOutOfMemoryError=kill -9 %p -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/var/log/taihao-apps/spark/ -Dlog4j.configuration=file:/etc/taihao-apps/spark-conf/spark-daemon-log4j.properties -Dspark.log.dir=/var/log/taihao-apps/spark -Dspark.log.file=spark-history-server.log -Xloggc:/var/log/taihao-apps/spark/spark-history-gc.log -XX:+IgnoreUnrecognizedVMOptions -verbose:gc -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -XX:+PrintGCDateStamps -XX:+UseGCLogFileRotation -XX:NumberOfGCLogFiles=5 -XX:GCLogFileSize=128M -Xmx1g org.apache.spark.deploy.history.HistoryServer
========================================
java.lang.OutOfMemoryError: GC overhead limit exceeded
Dumping heap to /var/log/taihao-apps/spark/java_pid562312.hprof ...
Heap dump file created [1038934719 bytes in 4.457 secs]
#
# java.lang.OutOfMemoryError: GC overhead limit exceeded
# -XX:OnOutOfMemoryError="kill -9 %p"
#   Executing /bin/sh -c "kill -9 562312"...
(END)

发现是history Server服务一直启动oom异常

重启一下:

bash 复制代码
yarn --daemon start timelineserver

或者:
yarn-daemon start timelineserver

重启无效,

定位配置参数发现spark历史任务日志太多,一直没清理

修改配置参数:

bash 复制代码
spark.history.fs.cleaner.enabled = true

spark_history_daemon_memory = 8g

spark_thrift_daemon_memory = 4g

成功

参考链接:
https://blog.csdn.net/Mrerlou/article/details/121405408
https://www.cnblogs.com/lemonu/p/13901203.html
https://www.cnblogs.com/nortingHome/p/13984217.html

相关推荐
SelectDB1 小时前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康8 小时前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
茶杯梦轩8 小时前
从零起步学习RabbitMQ || 第三章:RabbitMQ的生产者、Broker、消费者如何保证消息不丢失(可靠性)详解
分布式·后端·面试
IvanCodes8 小时前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康1 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
回家路上绕了弯2 天前
深入解析Agent Subagent架构:原理、协同逻辑与实战落地指南
分布式·后端
字节跳动数据平台2 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康2 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台3 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术3 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark