21、Flink 的 Checkpoints 使用介绍

Checkpoints
1.概述

Checkpoint 使 Flink 的状态具有良好的容错性,通过 checkpoint 机制,Flink 可以对作业的状态和计算位置进行恢复。

2.Checkpoint 存储

Flink 开箱即用地提供了两种 Checkpoint 存储类型

  • JobManagerCheckpointStorage
  • FileSystemCheckpointStorage

如果配置了 Checkpoint 目录,将使用 FileSystemCheckpointStorage,否则系统将使用 JobManagerCheckpointStorage

3.JobManagerCheckpointStorage

JobManagerCheckpointStorage 将 Checkpoint 快照存储在 JobManager 的堆内存中。

可以将其配置为在超过一定大小时使 Checkpoint 失败,以避免 JobManager 出现 OutOfMemoryError; 要设置此功能,用户可以实例化具有相应最大大小的 JobManagerCheckpointStorage

复制代码
new JobManagerCheckpointStorage(MAX_MEM_STATE_SIZE);

JobManagerCheckpointStorage 的限制:

  • 默认情况下,每个 State 的大小限制为 5 MB,可以在 JobManagerCheckpointStorage 的构造函数中修改大小。
  • 无论配置的最大 State 大小如何,状态都不能大于 Pekka 框架的大小。
  • 聚合后总的状态大小必须小于 JobManager 的内存上限。

鼓励在以下场景使用 JobManagerCheckpointStorage

  • 本地开发和调试
  • 使用很少状态的作业,例如仅包含每次仅存储一条记录(Map、FlatMap、Filter...)的作业,Kafka 消费者需要很少的 State。
4.FileSystemCheckpointStorage

FileSystemCheckpointStorage 配置中包含文件系统 URL(类型、地址、路径), 例如 "hdfs://namenode:40010/flink/checkpoints" 或 "file:///data/flink/checkpoints"。

Checkpoint 时, Flink 会将 State 快照写到配置的文件系统和目录的文件中;最少的元数据存储在 JobManager 的内存中(或者,高可用性模式下存储在 Checkpoint 的元数据中)。

如果指定了 Checkpoint 目录,FileSystemCheckpointStorage 将用于保存 Checkpoint 快照。

鼓励使用 FileSystemCheckpointStorage 的场景:

  • 所有高可用的场景。
5.保留 Checkpoint

Checkpoint 在默认的情况下仅用于恢复失败的作业,并不保留,当程序取消时 checkpoint 就会被删除;可以通过配置来保留 checkpoint,这些被保留的 checkpoint 在作业失败或取消时不会被清除;就可以使用该 checkpoint 来恢复失败的作业。

复制代码
CheckpointConfig config = env.getCheckpointConfig();
config.setExternalizedCheckpointCleanup(ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION);

ExternalizedCheckpointCleanup 配置项定义了当作业取消时,对作业 checkpoint 的操作:

  • ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION:当作业取消时,保留作业的 checkpoint。注意,这种情况下,需要手动清除该作业保留的 checkpoint。
  • ExternalizedCheckpointCleanup.DELETE_ON_CANCELLATION:当作业取消时,删除作业的 checkpoint。仅当作业失败时,作业的 checkpoint 才会被保留。
6.目录结构

与 savepoints 相似,checkpoint 由元数据文件、数据文件(与 state backend 相关)组成;可通过配置文件中 "state.checkpoints.dir" 配置项来指定元数据文件和数据文件的存储路径,另外也可以在代码中针对单个作业特别指定该配置项。

当前的 checkpoint 目录结构如下所示

yaml 复制代码
/user-defined-checkpoint-dir
    /{job-id}
        |
        + --shared/
        + --taskowned/
        + --chk-1/
        + --chk-2/
        + --chk-3/
        ...        

其中 SHARED 目录保存了可能被多个 checkpoint 引用的文件,TASKOWNED 保存了不会被 JobManager 删除的文件,EXCLUSIVE 则保存那些仅被单个 checkpoint 引用的文件。

注意: Checkpoint 目录不是公共 API 的一部分,因此可能在未来的 Release 中进行改变。

7.通过配置文件全局配置
复制代码
state.checkpoints.dir: hdfs:///checkpoints/
8.创建 state backend 对单个作业进行配置
复制代码
Configuration config = new Configuration();
config.set(StateBackendOptions.STATE_BACKEND, "rocksdb");
config.set(CheckpointingOptions.CHECKPOINT_STORAGE, "filesystem");
config.set(CheckpointingOptions.CHECKPOINTS_DIRECTORY, "hdfs:///checkpoints-data/");
env.configure(config);
9.从保留的 checkpoint 中恢复状态

与 savepoint 一样,作业可以从 checkpoint 的元数据文件恢复运行;如果元数据文件中信息不充分,那么 jobmanager 就需要使用相关的数据文件来恢复作业。

复制代码
$ bin/flink run -s :checkpointMetaDataPath [:runArgs]
相关推荐
2501_941403764 小时前
Python高性能图像识别与TensorFlow实战分享:深度学习模型优化与批量推理经验
flink
2501_941623326 小时前
人工智能赋能智慧农业互联网应用:智能种植、农业数据分析与产量优化实践探索》
大数据·人工智能
YangYang9YangYan6 小时前
网络安全专业职业能力认证发展路径指南
大数据·人工智能·安全·web安全
小五传输7 小时前
常用的文件摆渡系统:让数据安全高效跨越网络界限
大数据·运维·安全
数据科学小丫10 小时前
数据分析与FineBI介绍
大数据·数据分析·finebi
ALex_zry10 小时前
Git大型仓库推送失败问题完整解决方案
大数据·git·elasticsearch
二进制coder11 小时前
Git Fork 开发全流程教程
大数据·git·elasticsearch
天硕国产存储技术站15 小时前
DualPLP 双重掉电保护赋能 天硕工业级SSD筑牢关键领域安全存储方案
大数据·人工智能·安全·固态硬盘
雷文成.思泉软件15 小时前
以ERP为核心、企微为门户,实现一体化集成
大数据·低代码·创业创新
东哥说-MES|从入门到精通17 小时前
数字化部分内容 | 十四五年规划和2035年远景目标纲要(新华社正式版)
大数据·人工智能·数字化转型·mes·数字化工厂·2035·十四五规划