Spark JobHistory Server清理日志功能未生效,导致频繁挂掉

查看日志清理功能是打开的:spark.history.fs.cleaner.enabled = true,

spark.history.fs.cleaner.interval 和spark.history.fs.cleaner.maxAge使用的是默认值。

但是/user/spark/applicationHistory/ 目录下日志一直未不清理!存储的日志数量超过所允许的最大值。

缩短maxAge时间,然后重启了服务器,发现日志确实被清理了些。

但是还有大量未被清理的,有些运行时失败的spark job的日志没有被清理掉!

例如/user/spark/applicationHistory/application_XXX.inprogress

手动清理掉这些文件,spark Historyserver恢复正常!

相关推荐
沃达德软件几秒前
智慧政工中心功能解析
大数据·数据仓库·数据库开发·数据库架构·etl工程师
babe小鑫1 分钟前
大专学历进入快消大厂做终端销售分析的可行性分析
大数据
无忧智库6 分钟前
深度拆解:某高校“十五五”教育大数据治理中心与智慧校园支撑平台建设方案(WORD)
大数据
Coder_Boy_9 分钟前
基于SpringAI的在线考试系统-核心业务流程图(续)
java·大数据·人工智能·spring boot·流程图
marteker25 分钟前
Shopify拟将商业融入每段AI对话
大数据
KJYHS1 小时前
查看类目数据主要有插件端和网页端两种方式,操作简单且数据维度全面,新手可按需选择,具体步骤如下:
大数据
专注数据的痴汉2 小时前
「数据获取」全国民用运输机场吞吐量排名(2006-2024)
java·大数据·服务器·数据库·信息可视化
子非衣2 小时前
CenOS7安装RabbitMQ(含延迟队列插件)
分布式·rabbitmq·ruby
和你一起去月球2 小时前
Agent 应用开发与落地学习总结
大数据·ai·大模型·agent·agentic
JZC_xiaozhong2 小时前
分析型数据库 ClickHouse 在数据中台中的集成
大数据·数据库·clickhouse·架构·数据一致性·数据孤岛解决方案·数据集成与应用集成