Spark JobHistory Server清理日志功能未生效,导致频繁挂掉

查看日志清理功能是打开的:spark.history.fs.cleaner.enabled = true,

spark.history.fs.cleaner.interval 和spark.history.fs.cleaner.maxAge使用的是默认值。

但是/user/spark/applicationHistory/ 目录下日志一直未不清理!存储的日志数量超过所允许的最大值。

缩短maxAge时间,然后重启了服务器,发现日志确实被清理了些。

但是还有大量未被清理的,有些运行时失败的spark job的日志没有被清理掉!

例如/user/spark/applicationHistory/application_XXX.inprogress

手动清理掉这些文件,spark Historyserver恢复正常!

相关推荐
武子康6 小时前
大数据-271 Spark MLib-基础线性回归详解:从原理到损失优化实战
大数据·后端·spark
切糕师学AI6 小时前
深入理解 Flink:现代实时数据处理引擎详解
大数据·flink
lifallen6 小时前
Flink Source / Sink Exactly-Once 边界分析
java·大数据·flink
AC赳赳老秦7 小时前
测试工程师:OpenClaw自动化测试脚本生成,批量执行测试用例
大数据·linux·人工智能·python·django·测试用例·openclaw
Simon_lca7 小时前
验厂不翻车!Acushnet 11 项核心政策 + 自查要点,一文搞定
大数据·人工智能·经验分享·算法·制造
阿维的博客日记8 小时前
分布式事务代码
分布式
黎阳之光8 小时前
黎阳之光:全域实景立体管控,重构智慧电厂与变电站数字孪生新范式
大数据·人工智能·算法·安全·数字孪生
Chuer_8 小时前
详解智能问数的增效逻辑,全方位拆解智能问数实战场景
大数据·数据库·甘特图
咕咕姐与Ai8 小时前
扣子(Coze)实战:秒出一条情感早安电台!工作流,把治愈内容做成了全自动流水线
大数据·人工智能·程序人生·语言模型·ai写作
孟意昶8 小时前
Doris专题28-聚合多维分析
大数据·数据库·数据仓库·sql·doris