Spark JobHistory Server清理日志功能未生效,导致频繁挂掉

查看日志清理功能是打开的:spark.history.fs.cleaner.enabled = true,

spark.history.fs.cleaner.interval 和spark.history.fs.cleaner.maxAge使用的是默认值。

但是/user/spark/applicationHistory/ 目录下日志一直未不清理!存储的日志数量超过所允许的最大值。

缩短maxAge时间,然后重启了服务器,发现日志确实被清理了些。

但是还有大量未被清理的,有些运行时失败的spark job的日志没有被清理掉!

例如/user/spark/applicationHistory/application_XXX.inprogress

手动清理掉这些文件,spark Historyserver恢复正常!

相关推荐
武子康36 分钟前
大数据-253 离线数仓 - Airflow 入门与任务调度实战:DAG、Operator、Executor 部署排错指南
大数据·后端·apache hive
guoji77882 小时前
2026年Gemini 3 Pro vs 豆包2.0深度评测:海外顶流与国产黑马谁更强?
大数据·人工智能·架构
TDengine (老段)2 小时前
TDengine IDMP 组态面板 —— 工具箱
大数据·数据库·时序数据库·tdengine·涛思数据
网络工程小王2 小时前
【大数据技术详解】——Kibana(学习笔记)
大数据·笔记·学习
zxsz_com_cn4 小时前
设备预测性维护方案设计的关键要素
大数据·人工智能
唐天下闻化4 小时前
连锁数字化改造8成翻车?三维避坑实录
大数据
坚持学习前端日记6 小时前
从零开始构建小说推荐智能体 - Coze 本地部署完整教程
大数据·人工智能·数据挖掘
IDIOT___IDIOT7 小时前
关于 git 进行版本管理的时候 gitignore 写入忽略规则而不生效的问题
大数据·git·elasticsearch
不想看见4047 小时前
Git 误删急救手册
大数据·git·elasticsearch