spark Container killed by YARN for exceeding memory limits.问题处理

ExecutorLostFailure (executor 2 exited caused by one of the running tasks) Reason: Container killed by YARN for exceeding memory limits. 25.8 GB of 25.5 GB physical memory used. Consider boosting spark.yarn.executor.memoryOverhead or disabling yarn.nodemanager.vmem-check-enabled because of YARN-4714.

1、考虑增加每个 task 的可用内存

// 增大Executor 内存

// 减少 executor-cores 数

2、增加memoryOverhead的值

set spark.yarn.executor.memoryOverhead=6G;

memoryOverhead参数:

是YARN资源管理器为每个executor分配的额外内存。

这部分内存不直接用于存储或计算数据,而是用于执行器运行时的各种开销,如操作系统、库和其他必要的进程。

默认情况下,memoryOverhead的计算方式是executor总内存(包括堆内存在内)的15%。

在处理大规模数据集或进行复杂计算时,可能需要增加memoryOverhead的值以确保足够的内存供各种运行时开销使用。

相关推荐
小邓睡不饱耶1 天前
Sqoop 实战:数据迁移核心案例、优化技巧与企业级落地
hive·hadoop·sqoop
沃达德软件1 天前
重点人员动态管控系统解析
数据仓库·人工智能·hive·hadoop·redis·hbase
ruxshui1 天前
个人笔记: 星环Inceptor/hive普通分区表与范围分区表核心技术总结
hive·hadoop·笔记
Gain_chance1 天前
26-学习笔记尚硅谷数仓搭建-DIM层特殊的维度表——用户维度表的建表、分析及DIM层数据装载脚本
数据仓库·hive·笔记·学习
gis分享者1 天前
学习threejs,打造原生3D高斯溅落实时渲染器
spark·threejs·ply·高斯·splat·溅落·实时渲染器
鸿乃江边鸟1 天前
Spark Datafusion Comet 向量化Rust Native--读数据
rust·spark·native·arrow
看起来不那么蠢的昵称1 天前
Apache Spark 开发与调优实战手册 (Java / Spark 2.x)
java·spark
看起来不那么蠢的昵称1 天前
高性能 Spark UDF 开发手册
java·大数据·spark
亚林瓜子2 天前
AWS Glue任务中使用一个dynamic frame数据过滤另外一个dynamic frame数据
java·python·sql·spark·aws·df·py
鹿衔`2 天前
Apache Spark 任务资源配置与优先级指南
python·spark