spark的统一内存管理机制

Spark的统一内存管理机制通过动态分配内存资源来优化计算效率。其核心设计将堆内存划分为统一的内存池,主要包含以下部分:

根据Spark 统一内存管理机制,堆内存被划分为了两块,Storage 和Execution。Storage 主要用于缓存数据,Execution 主要用于缓存在shuffle 过程中产生的中间数据,两者所组成的内存部分称为统一内存,Storage 和Execution 各占统一内存的50%,由于动态占用机制的实现,shuffle 过程需要的内存过大时,会自动占用Storage 的内存区域,因此无需手动进行调节。

一、内存区域划分

  1. 存储内存(Storage Memory)

    用于缓存RDD、广播变量等数据,占比由参数spark.memory.storageFraction控制(默认0.6)。公式表达:

    \\text{存储内存上限} = \\text{堆内存} \\times s \\quad (s \\in \[0.5, 0.9\])

  2. 执行内存(Execution Memory)

    用于Shuffle、Join、聚合等计算过程的临时数据,与存储内存共享剩余空间。


二、动态调整机制

  1. 借用规则

    • 执行内存不足时可借用空闲的存储内存
    • 存储内存不足时可反向借用,但需归还借用的执行内存

      \\text{可用内存} = \\begin{cases} M_{\\text{执行}} + (M_{\\text{存储空闲}} - M_{\\text{借出}}) \& \\text{执行侧不足} \\ M_{\\text{存储}} + (M_{\\text{执行空闲}} - M_{\\text{借出}}) \& \\text{存储侧不足} \\end{cases}

  2. 驱逐机制

    当存储内存被借用且原数据需恢复时,Spark会按LRU策略将部分RDD块溢出到磁盘。


三、溢出处理

当内存不足时,系统自动触发溢出操作:

复制代码
if (内存压力 > 阈值) {
  将Shuffle数据写入磁盘
  清除最近未使用的RDD分区
}

四、优势与监控

  1. 优势

    • 避免静态分区导致的内存浪费
    • 根据任务需求实时调整资源
  2. 监控方式

    通过Spark UI的StorageExecutors页签查看内存使用明细。

提示 :合理设置spark.memory.fraction(默认0.6)和spark.memory.storageFraction可优化性能,需结合具体作业特性调整。

相关推荐
短剑重铸之日1 天前
《ShardingSphere解读》07 读写分离:如何集成分库分表+数据库主从架构?
java·数据库·后端·架构·shardingsphere·分库分表
知我Deja_Vu1 天前
【避坑指南】ConcurrentHashMap 并发计数优化实战
java·开发语言·python
一段佳话^cyx1 天前
详解逻辑回归(Logistic Regression):原理、推导、实现与实战
大数据·算法·机器学习·逻辑回归
daidaidaiyu1 天前
Spring IOC 源码学习 事务相关的 BeanDefinition 解析过程 (XML)
java·spring
zhou lily1 天前
SaaS模式下的企业服务创新与数字化转型:战略重构与价值落地
大数据
qq_452396231 天前
【Python × AI】多智能体协作:从 AutoGPT 到 CrewAI 的组织进化论
大数据·人工智能·python·ai
鬼蛟1 天前
Spring————事务
android·java·spring
西门吹-禅1 天前
【sap fiori cds up error】
java·服务器·sap cap cds
敲代码的嘎仔1 天前
Java后端面试——SSM框架面试题
java·面试·职场和发展·mybatis·ssm·springboot·八股
大傻^1 天前
Spring AI Alibaba RAG实战:基于向量存储的检索增强生成
java·人工智能·spring