Spark JobHistory Server清理日志功能未生效,导致频繁挂掉

查看日志清理功能是打开的:spark.history.fs.cleaner.enabled = true,

spark.history.fs.cleaner.interval 和spark.history.fs.cleaner.maxAge使用的是默认值。

但是/user/spark/applicationHistory/ 目录下日志一直未不清理!存储的日志数量超过所允许的最大值。

缩短maxAge时间,然后重启了服务器,发现日志确实被清理了些。

但是还有大量未被清理的,有些运行时失败的spark job的日志没有被清理掉!

例如/user/spark/applicationHistory/application_XXX.inprogress

手动清理掉这些文件,spark Historyserver恢复正常!

相关推荐
TMT星球17 分钟前
生数科技携手央视新闻《文博日历》,推动AI视频技术的创新应用
大数据·人工智能·科技
Dipeak数巅科技2 小时前
数巅科技连续中标大模型项目 持续助力央国企数智化升级
大数据·人工智能·数据分析
青灯文案12 小时前
RabbitMQ 匿名队列详解
分布式·rabbitmq
Ray.19982 小时前
Flink 的核心特点和概念
大数据·数据仓库·数据分析·flink
极客先躯2 小时前
如何提升flink的处理速度?
大数据·flink·提高处理速度
BestandW1shEs2 小时前
快速入门Flink
java·大数据·flink
中东大鹅3 小时前
MongoDB基本操作
数据库·分布式·mongodb·hbase
苏苏大大4 小时前
zookeeper
java·分布式·zookeeper·云原生
速融云4 小时前
汽车制造行业案例 | 发动机在制造品管理全解析(附解决方案模板)
大数据·人工智能·自动化·汽车·制造
金融OG5 小时前
99.11 金融难点通俗解释:净资产收益率(ROE)VS投资资本回报率(ROIC)VS总资产收益率(ROA)
大数据·python·算法·机器学习·金融