spark Container killed by YARN for exceeding memory limits.问题处理

ExecutorLostFailure (executor 2 exited caused by one of the running tasks) Reason: Container killed by YARN for exceeding memory limits. 25.8 GB of 25.5 GB physical memory used. Consider boosting spark.yarn.executor.memoryOverhead or disabling yarn.nodemanager.vmem-check-enabled because of YARN-4714.

1、考虑增加每个 task 的可用内存

// 增大Executor 内存

// 减少 executor-cores 数

2、增加memoryOverhead的值

set spark.yarn.executor.memoryOverhead=6G;

memoryOverhead参数:

是YARN资源管理器为每个executor分配的额外内存。

这部分内存不直接用于存储或计算数据,而是用于执行器运行时的各种开销,如操作系统、库和其他必要的进程。

默认情况下,memoryOverhead的计算方式是executor总内存(包括堆内存在内)的15%。

在处理大规模数据集或进行复杂计算时,可能需要增加memoryOverhead的值以确保足够的内存供各种运行时开销使用。

相关推荐
暗影八度12 小时前
Spark流水线数据质量检查组件
大数据·分布式·spark
涤生大数据1 天前
Apache Spark 4.0:将大数据分析提升到新的水平
数据分析·spark·apache·数据开发
xufwind2 天前
spark standlone 集群离线安装
大数据·分布式·spark
大数据CLUB2 天前
基于spark的奥运会奖牌变化数据分析
大数据·hadoop·数据分析·spark
华子w9089258592 天前
基于 Python Django 和 Spark 的电力能耗数据分析系统设计与实现7000字论文实现
python·spark·django
无级程序员3 天前
hive2服务启动报错:/tmp/hive on HDFS should be writable(不是chmod 777能解决的)
hive·hadoop·hdfs
小新学习屋3 天前
Spark从入门到熟悉(篇三)
大数据·分布式·spark
rui锐rui3 天前
大数据学习2:HIve
大数据·hive·学习
凌辰揽月3 天前
Servlet学习
hive·学习·servlet