spark Container killed by YARN for exceeding memory limits.问题处理

ExecutorLostFailure (executor 2 exited caused by one of the running tasks) Reason: Container killed by YARN for exceeding memory limits. 25.8 GB of 25.5 GB physical memory used. Consider boosting spark.yarn.executor.memoryOverhead or disabling yarn.nodemanager.vmem-check-enabled because of YARN-4714.

1、考虑增加每个 task 的可用内存

// 增大Executor 内存

// 减少 executor-cores 数

2、增加memoryOverhead的值

set spark.yarn.executor.memoryOverhead=6G;

memoryOverhead参数:

是YARN资源管理器为每个executor分配的额外内存。

这部分内存不直接用于存储或计算数据,而是用于执行器运行时的各种开销,如操作系统、库和其他必要的进程。

默认情况下,memoryOverhead的计算方式是executor总内存(包括堆内存在内)的15%。

在处理大规模数据集或进行复杂计算时,可能需要增加memoryOverhead的值以确保足够的内存供各种运行时开销使用。

相关推荐
Lansonli6 小时前
大数据Spark(六十一):Spark基于Standalone提交任务流程
大数据·分布式·spark
簌簌曌8 小时前
CentOS7 + JDK8 虚拟机安装与 Hadoop + Spark 集群搭建实践
大数据·hadoop·spark
Theodore_102210 小时前
大数据(1) 大数据概述
大数据·hadoop·数据分析·spark·hbase
Aurora_NeAr10 小时前
Apache Spark详解
大数据·后端·spark
weixin_4723394614 小时前
Doris查询Hive数据:实现高效跨数据源分析的实践指南
数据仓库·hive·hadoop
神奇侠20241 天前
Hive SQL常见操作
hive·hadoop·sql
itachi-uchiha1 天前
Docker部署Hive大数据组件
大数据·hive·docker
viperrrrrrrrrr72 天前
大数据学习(131)-Hive数据分析函数总结
大数据·hive·学习
qq_408413392 天前
spark 执行 hive sql数据丢失
hive·sql·spark
后端码匠2 天前
Spark 单机模式部署与启动
大数据·分布式·spark