Spark JobHistory Server清理日志功能未生效,导致频繁挂掉

查看日志清理功能是打开的:spark.history.fs.cleaner.enabled = true,

spark.history.fs.cleaner.interval 和spark.history.fs.cleaner.maxAge使用的是默认值。

但是/user/spark/applicationHistory/ 目录下日志一直未不清理!存储的日志数量超过所允许的最大值。

缩短maxAge时间,然后重启了服务器,发现日志确实被清理了些。

但是还有大量未被清理的,有些运行时失败的spark job的日志没有被清理掉!

例如/user/spark/applicationHistory/application_XXX.inprogress

手动清理掉这些文件,spark Historyserver恢复正常!

相关推荐
Mxsoft6196 分钟前
某次实时分析延迟高,Flink事件时间窗口对齐救场!
大数据·flink
DX_水位流量监测7 分钟前
管网液位计的技术特性与工程应用解析
大数据·网络·人工智能·信息可视化·架构
paperxie_xiexuo8 分钟前
从数据到话语:面向期刊知识转化的智能写作协同机制研究
大数据·人工智能·ai写作·期刊论文
D***M97611 分钟前
分布式监控Skywalking安装及使用教程(保姆级教程)
分布式·skywalking
摘星编程12 分钟前
【前瞻创想】Kurator分布式云原生平台架构解析与实践指南
分布式·云原生·架构·kurator
mn_kw12 分钟前
Hive On Spark 统计信息收集深度解析
hive·hadoop·spark
mn_kw13 分钟前
Spark SQL CBO(基于成本的优化器)参数深度解析
前端·sql·spark
weixin1997010801614 分钟前
新京报 item_get - 获取详情数据接口对接全攻略:从入门到精通
大数据·人工智能
写bug的小屁孩16 分钟前
1.Kafka-快速认识概念
java·分布式·kafka
天行健,君子而铎19 分钟前
“数据防泄漏”(Data Loss Prevention, DLP)
大数据·数据库·安全·系统安全·学习方法·安全架构