Spark JobHistory Server清理日志功能未生效,导致频繁挂掉

查看日志清理功能是打开的:spark.history.fs.cleaner.enabled = true,

spark.history.fs.cleaner.interval 和spark.history.fs.cleaner.maxAge使用的是默认值。

但是/user/spark/applicationHistory/ 目录下日志一直未不清理!存储的日志数量超过所允许的最大值。

缩短maxAge时间,然后重启了服务器,发现日志确实被清理了些。

但是还有大量未被清理的,有些运行时失败的spark job的日志没有被清理掉!

例如/user/spark/applicationHistory/application_XXX.inprogress

手动清理掉这些文件,spark Historyserver恢复正常!

相关推荐
百流24 分钟前
Pyspark dataframe基本内置方法(4)
数据库·python·spark·pyspark·dataframe
杨超越luckly26 分钟前
共享单车轨迹数据分析:以厦门市共享单车数据为例(五)
大数据·数据库·python·arcgis·数据分析
IT研究室30 分钟前
大数据毕业设计选题推荐-高校考试分析系统-Hive-Hadoop-Spark
java·大数据·hadoop·spark·毕业设计·源码·课程设计
问道飞鱼32 分钟前
分布式中间件-分布式协调服务zookeeper
分布式·zookeeper·中间件
蒋大钊!38 分钟前
分布式难题-三座大山NPC
分布式
码爸1 小时前
kafka负载均衡迁移(通过kafka eagle)
数据库·分布式·kafka
Amor风信子1 小时前
【小小的脑袋,大大的疑问?】如何在Zookeeper中配置集群?
分布式·zookeeper
確定饿的猫2 小时前
zookeeper
linux·分布式·zookeeper
闲人编程2 小时前
Hadoop 性能优化高频面试题及答案
大数据·hadoop·面试·性能优化·高频