spark如何配置checkpoint

1、sparkSession配置checkpoint的方法

复制代码
# step1: 在conf中添加checkpoint的保存地址
val spark = SparkSession.builder
      .appName(JobRegister.getJobName("xxx", s"xxxx"))
      .config("hive.exec.dynamic.partition", "true")
      .config("hive.exec.dynamic.partition.mode", "nonstrict")
      .config("spark.sql.broadcastTimeout", 3000)
      .config("spark.sql.sources.partitionOverwriteMode", "dynamic")
      .config("spark.checkpoint.dir", "/user/vc/projects_prod/checkpoint/data") # 配置路径
      .enableHiveSupport()
      .getOrCreate()

# step2: 保险期间,在引用spark时,再设置下:
spark.sparkContext.setCheckpointDir("/user/vc/projects_prod/checkpoint/data")

# step3: 在代码中添加checkpoint函数
val risk_msg = spark.sql(s"select * from temp.dwd_im_basic_info ")
      .cache()
      .checkpoint()

2、checkpoint()跟cache()的原理

  1. checkpoint() 方法和 cache() 方法都是 Spark中的缓存机制,用于提高计算效率的操作,都可以在迭代计算或长时间计算中使用,以减少计算时间和提高数据可靠性,但是它们的实现方式不同。
  2. cache() 是将数据缓存在内存中,优势在于速度快,但缺点在于内存有限,数据可能会被清除;
  3. 而 checkpoint()则是将数据写入磁盘中,优势在于数据可靠性高,但缺点在于速度慢,需要写入磁盘。
  4. cache() 是一个转换操作,不会立即执行计算,只有在行动操作需要使用数据时才会触发计算。
  5. checkpoint()会触发一次完整的计算,并将结果写入到磁盘中,因此它是一个行动操作
  6. 但是,checkpoint() 方法需要将数据写入磁盘或分布式文件系统中,这会导致额外的 I/O操作,影响性能。因此,为了避免频繁地进行 I/O 操作,通常将 checkpoint() 方法和 cache() 方法结合使用。
  7. 具体来说,可以先使用 cache() 方法将数据缓存到内存中,然后再使用 checkpoint()方法将数据写入磁盘或分布式文件系统中。这样可以避免频繁地进行 I/O 操作,同时又能保证数据的可靠性和可恢复性。
  8. 需要注意的是,使用 checkpoint()会将数据写入磁盘或分布式文件系统中,这会占用一定的存储空间。因此,需要根据实际情况来决定何时使用 checkpoint()方法,以避免浪费存储资源。

3、checkpoint()和cache()结合时,谁前谁后呢?

在 PyTorch 中,checkpoint() 和 cache() 都是模型优化中经常使用的函数,但它们的使用方式和作用不同。

checkpoint() 函数是一种优化方法,可以将模型的一部分计算推迟到后面执行,从而减少显存的占用 ,提高模型的训练速度。

而 cache() 函数是一种缓存方法,可以将模型的某些计算结果缓存下来,以便下次使用时可以直接调用,避免重复计算,提高模型的训练速度。

这两个函数的使用顺序取决于具体的场景。

如果你希望先缓存模型的某些计算结果,再对模型进行优化,那么就应该先使用 cache() 函数,再使用 checkpoint() 函数。

如果你希望先对模型进行优化保存,再将优化后的结果缓存下来,那么就应该先使用 checkpoint() 函数,再使用 cache() 函数。

相关推荐
阿里云大数据AI技术15 小时前
StarRocks 助力数禾科技构建实时数仓:从数据孤岛到智能决策
大数据
Lx35220 小时前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
努力的小郑1 天前
从一次分表实践谈起:我们真的需要复杂的分布式ID吗?
分布式·后端·面试
武子康1 天前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
AAA修煤气灶刘哥1 天前
别让Redis「歪脖子」!一次搞定数据倾斜与请求倾斜的捉妖记
redis·分布式·后端
阿里云大数据AI技术2 天前
大数据公有云市场第一,阿里云占比47%!
大数据
Lx3522 天前
Hadoop容错机制深度解析:保障作业稳定运行
大数据·hadoop
Aomnitrix2 天前
知识管理新范式——cpolar+Wiki.js打造企业级分布式知识库
开发语言·javascript·分布式
程序消消乐2 天前
Kafka 入门指南:从 0 到 1 构建你的 Kafka 知识基础入门体系
分布式·kafka