Spark context stopped while waiting for backend

目录

报错信息

解决办法

解释


报错信息

Spark context stopped while waiting for backend

翻译过来就是 :Spark上下文在等待后端时停止

解决办法

通过在yarn-site.xml中添加如下配置项,并重启yarn,程序在 "--driver-memory 600m --executor-memory 600m"的参数下已可以成功运行。

复制代码
<property>
    <name>yarn.nodemanager.pmem-check-enabled</name>
    <value>false</value>
</property>
<property>
    <name>yarn.nodemanager.vmem-check-enabled</name>
    <value>false</value>
</property>

解释

这个错误通常意味着 Spark 应用程序在等待后端资源或服务时,Spark 上下文(context)被关闭或终止了。

  1. 资源不足:如果集群资源不足,Spark 作业可能会因为等待资源而超时,导致上下文被关闭。请检查集群资源利用率,确保有足够的资源来执行作业。
  2. 长时间未响应:如果 Spark 作业长时间没有响应,它可能会被系统自动关闭。检查你的作业是否有无限循环、死锁或其他可能导致长时间运行的问题。
  3. 配置问题 :检查 Spark 的配置设置,确保它们是正确的。例如,检查 spark.driver.memoryspark.executor.memory 是否设置得太高或太低。
相关推荐
Query*1 天前
分布式消息队列kafka【五】—— kafka海量日志收集实战
分布式·kafka
serendipity_hky1 天前
【SpringCloud | 第5篇】Seata分布式事务
分布式·后端·spring·spring cloud·seata·openfeign
老蒋新思维1 天前
创客匠人视角:智能体重构创始人 IP,知识变现从 “内容售卖” 到 “能力复制” 的革命
大数据·网络·人工智能·tcp/ip·创始人ip·创客匠人·知识变现
梦里不知身是客111 天前
RDD分区的设定规则
spark
笨蛋少年派1 天前
Flume数据采集工具简介
大数据
梦里不知身是客111 天前
spark中如何调节Executor的堆外内存
大数据·javascript·spark
小C8061 天前
【Starrocks + Hive 】BitMap + 物化视图 实战记录
大数据
lang201509281 天前
Kafka元数据缓存机制深度解析
分布式·缓存·kafka
西格电力科技1 天前
面向工业用户的绿电直连架构适配技术:高可靠与高弹性的双重设计
大数据·服务器·人工智能·架构·能源