spark临时文件较大问题处理

最近使用spark对ods明细表数据进行清洗,由于清洗的表数据量较大,加上集群只有5个节点,磁盘使用率也上去了,导致每次跑spark任务时,都会产生很多临时文件,是由于内存使用完了,就会把临时数据存到磁盘,导致磁盘使用率超过80%以上,spark任务就会报错,具体报错如下:

bash 复制代码
java.io.IOException: No space left on device
java.io.FileNotFoundException: /hadoop/yarn/local/usercache/root/appcache/application_1694660329536_0016/blockmgr-081bea52-e592-4759-8d20-023ae4d85cfa/23/shuffle_0_2193_0.data.1b8c66cc-b32f-46c3-9213-410972743ea4 (No space left on device)

解决方法:

修改yarn的存储路径:

YARN NodeManager Local directories

挂载到磁盘比较大的路径下:

如挂载盘在home目录下,可以使用如下路径:

bash 复制代码
/home/hadoop/yarn/local
相关推荐
NOCSAH13 小时前
统好 AI 驱动产业革新,以数智一体化实现高效经营
大数据·人工智能
运维小欣13 小时前
2026可观测平台厂商推荐:聚焦智能化与场景化落地的选型指南
大数据·人工智能
小研说技术13 小时前
Spring AI Alibaba如何让AI学会专业本领
大数据·人工智能·spring
快乐非自愿14 小时前
SpringAI入门指南
大数据·人工智能·spring
choke23314 小时前
深度分析系统建模:从UML基础到类图和对象图的实际应用
大数据·软件工程·uml
IT观测14 小时前
打通施工现场与办公室:工程项目管理软件如何实现真正的远程协同?
大数据
武子康14 小时前
大数据-277 Spark MLib-梯度提升树(GBDT)算法原理与工程实现指南
大数据·后端·spark
DeepSCRM14 小时前
跨境SOP:从环境隔离到实时翻译,打造巴西市场24/7自动转化漏斗
大数据·人工智能
zs宝来了14 小时前
Apache Spark 内存计算:DAG 调度与执行计划
大数据·数据工程
AI-小柒14 小时前
磅上线!DataEyes 聚合平台正式接入 GPT-Image-2,开启多模态 AI 生成全新纪元
大数据·开发语言·数据库·人工智能·gpt·php