spark Container killed by YARN for exceeding memory limits.问题处理

ExecutorLostFailure (executor 2 exited caused by one of the running tasks) Reason: Container killed by YARN for exceeding memory limits. 25.8 GB of 25.5 GB physical memory used. Consider boosting spark.yarn.executor.memoryOverhead or disabling yarn.nodemanager.vmem-check-enabled because of YARN-4714.

1、考虑增加每个 task 的可用内存

// 增大Executor 内存

// 减少 executor-cores 数

2、增加memoryOverhead的值

set spark.yarn.executor.memoryOverhead=6G;

memoryOverhead参数:

是YARN资源管理器为每个executor分配的额外内存。

这部分内存不直接用于存储或计算数据,而是用于执行器运行时的各种开销,如操作系统、库和其他必要的进程。

默认情况下,memoryOverhead的计算方式是executor总内存(包括堆内存在内)的15%。

在处理大规模数据集或进行复杂计算时,可能需要增加memoryOverhead的值以确保足够的内存供各种运行时开销使用。

相关推荐
今天我又学废了1 小时前
Spark,集群搭建-Standalone
大数据·分布式·spark
心仪悦悦2 小时前
被关在idea小黑屏里写spark程序
java·spark·intellij-idea
lqlj22333 小时前
如何在idea中写spark程序
java·spark·intellij-idea
viperrrrrrrrrr74 小时前
大数据学习(115)-hive与impala
大数据·hive·学习·impala
麻芝汤圆4 小时前
在 IDEA 中写 Spark 程序:从入门到实践
java·大数据·hadoop·分布式·安全·spark·intellij-idea
炒空心菜菜5 小时前
Spark 配置 YARN 模式
大数据·spark·yarn
什么芮.8 小时前
Kafka和flume整合
spark·kafka·flume
2401_8712905815 小时前
如何在idea中写spark程序
大数据·spark·intellij-idea
只因只因爆15 小时前
如何在idea中写spark程序
java·spark·intellij-idea
!chen17 小时前
Hadoop和Spark大数据挖掘与实战
hadoop·数据挖掘·spark