Flink从入门到上天系列第二十三篇:Flink中增量检查点和最终检查点

一:增量快照

在 1.15 之前,只有RocksDB 支持增量快照。不同于产生一个包含所有数据的全量备份,增量快照中只包含自上一次快照完成之后被修改的记录,因此可以显著减少快照完成的耗时。

复制代码
Rocksdb状态后端启用增量checkpoint:
EmbeddedRocksDBStateBackend backend = new EmbeddedRocksDBStateBackend(true);

从 1.15 开始,不管hashmap还是rocksdb 状态后端都可以通过开启changelog实现通用的增量checkpoint。

1:执行过程

带状态的算子将状态内容写到两个地方,第一个是状态变更日志、第二个是状态表。状态变更日志是持续性的往磁盘中写,状态表不是,状态表是大概十分钟写一次。当我们状态表

状态物化:状态表定期保存,独立于检查点。状态物化完成后,状态变更日志就可以被截断到相应的点

这种方式,会出现很多很多的小文件。

2:使用方式

复制代码
<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-statebackend-changelog</artifactId>
    <version>${flink.version}</version>
    <scope>runtime</scope>
</dependency>
开启changelog:
env.enableChangelogStateBackend(true);

二:最终检查点

如果数据源是有界的,就可能出现部分Task已经处理完所有数据,变成finished状态,不继续工作。从 Flink 1.14 开始,这些finished状态的Task,也可以继续执行检查点。自 1.15 起默认启用此功能,并且可以通过功能标志禁用它:

复制代码
Configuration config = new Configuration();
config.set(ExecutionCheckpointingOptions.ENABLE_CHECKPOINTS_AFTER_TASKS_FINISH, false);
StreamExecutionEnvironment env =StreamExecutionEnvironment.getExecutionEnvironment(config);

有界数据,某个算子已经处理完毕所有数据,这个将不会再做检查点备份。后边的算子可能仍然会运行。

有这么一个设置可以关闭,但是我们生产中不会关闭。

复制代码
config.set(ExecutionCheckpointingOptions.ENABLE_CHECKPOINTS_AFTER_TASKS_FINISH, false);
相关推荐
AC赳赳老秦2 小时前
OpenClaw核心命令详解(常用指令+实战示例,高效开启自动化工作)
大数据·运维·人工智能·自动化·ai-native·deepseek·openclaw
yumgpkpm2 小时前
Apache Spark 和 Flink,处理实时大数据流对比(Cloudera CDH、CDP)
flink·spark·apache
岁岁种桃花儿2 小时前
Flink从入门到上天系列第二十篇:Flink当中的Barrier算法
大数据·flink
黎阳之光2 小时前
黎阳之光:十五五规划下,以5G+AI全栈技术重塑零碳园区“信息高速路”
大数据·人工智能·5g·安全·智慧城市
九河云2 小时前
云供应链安全:第三方 SaaS 服务的风险评估与管控
大数据·运维·安全·架构·数字化转型
Simon_lca2 小时前
CABELAS 验厂完整科普:审核规则、核心要求与实操注意事项全解
大数据·人工智能·经验分享·微信·制造
青主创享阁3 小时前
玄晶引擎XgenCore Works V2.8.1升级解析 技术迭代赋能场景 代理模式全新落地
大数据·人工智能·代理模式
laozhao43211 小时前
科大讯飞中标教育管理应用升级开发项目
大数据·人工智能
GIS数据转换器12 小时前
延凡城市生命线系统
大数据·人工智能·信息可视化·数据挖掘·无人机