【Spark Core】(三)RDD的持久化

1 RDD的数据是过程数据

  • RDD之间进行相互迭代计算(Transform转换),当执行开启后,新的RDD生成,老的RDD消失
  • RDD的数据是过程数据,只在处理的过程中存在,一旦处理完成就不见了。
  • 这个特性可以最大化利用资源,老的RDD没用了,就从内存中清除,给后续的计算腾出内存。

2 RDD缓存

  • RDD缓存:Spark提供了缓存API,可以通过调用API将指定的RDD数据保留在内存或硬盘上

  • 缓存在设计上认为是不安全的,会保存前置RDD的血缘关系

  • 缓存是分散存储的

    RDD3被两次使用,可以加入缓存进行优化

    rdd.cache() # 缓存到内存中
    rdd.persist(StorageLevel.MEMORY_ONLY) # 仅内存缓存
    rdd.persist(StorageLevel.MEMORY_ONLY_2) # 仅内存缓存,2副本
    rdd.persist(StorageLevel.DISK_ONLY) # 仅磁盘缓存
    rdd.persist(StorageLevel.DISK_ONLY_2) # 仅磁盘缓存,2副本
    rdd.persist(StorageLevel.MEMORY_AND_DISK) # 先缓存到内存,不够缓存到硬盘
    rdd.persist(StorageLevel.MEMORY_AND_DISK_2) # 先缓存到内存,不够缓存到硬盘,2副本
    rdd.persist(StorageLevel.OFF_HEAP) # 堆外内存(系统内存)

    一般建议使用rdd3.persist(StorageLevel.MEMORY_AND_DISK)

    内存较小的集群,建议使用rdd3.persist(StorageLevel.DISK_ONLY) 或使用CheckPoint

    主动清理缓存的API

    rdd.unperisist()

3 RDD CheckPoint

  • CheckPoint仅支持硬盘缓存(HDFS)

  • CheckPoint设计上认为是安全的,不保留血缘关系

  • CheckPoint是集中收集各个分区数据进行存储的

    设置CheckPoint第一件事:选择CP的保存路径

    如果是local模式,可以支持本地文件系统,如果在集群运行,务必用HDFS

    sc.setCheckpointDir("hdfs://node1:8020/output/aaa123ckp")

    使用时直接调用checkpoint算子即可

    rdd.checkpoint()

4 缓存 VS CheckPoint

  • CheckPoint不论分区数量多少,风险一致;缓存分区越多,风险越高
  • CheckPoint支持写入HDFS;缓存不支持。HDFS是高可靠存储,CheckPoint被认为是安全的
  • CheckPoint不支持内存;缓存支持。缓存如果写内存,性能比CheckPoint好
  • CheckPoint设计上认为是安全的,所以不保留血缘关系;缓存设计上认为是不安全的,所以保留血缘关系。
相关推荐
大厂技术总监下海16 分钟前
用户行为分析怎么做?ClickHouse + 嵌套数据结构,轻松处理复杂事件
大数据·数据结构·数据库
大厂技术总监下海22 分钟前
大数据生态的“主动脉”:RocketMQ 如何无缝桥接 Flink、Spark 与业务系统?
大数据·开源·rocketmq
2501_9336707929 分钟前
2026年中专大数据专业可考取的证书
大数据
oMcLin43 分钟前
如何在Ubuntu 22.04 LTS上优化PostgreSQL 14集群,提升大数据查询的响应速度与稳定性?
大数据·ubuntu·postgresql
信创天地1 小时前
核心系统去 “O” 攻坚:信创数据库迁移的双轨运行与数据一致性保障方案
java·大数据·数据库·金融·架构·政务
rchmin1 小时前
Distro与Raft协议对比分析
分布式·cap
小辉笔记1 小时前
kafka原理总结
分布式·kafka
zhyf1191 小时前
Max395(ubuntu24.04)AMD显卡GLM-4.7-UD-IQ1-M量化模型部署手册
大数据·elasticsearch·搜索引擎
实战项目1 小时前
分布式协作入侵检测系统的报警信息管理
分布式
小北方城市网1 小时前
微服务接口设计实战指南:高可用、易维护的接口设计原则与规范
java·大数据·运维·python·微服务·fastapi·数据库架构