Flink从入门到上天系列第二十篇:Flink当中的Barrier算法

一:对齐算法场景说明

备份的时候,为什么必须要Barrier,保障每个算子状态是将一条数据完整处理完毕的。

在Flink中,采用了基于Chandy-Lamport算法的分布式快照,可以在不暂停整体流处理的前提下,将状态备份保存到检查点。

二:检查点的分界线

  • 设计思想:借鉴水位线的设计,在数据流中插入一种特殊数据结构,用于标记触发检查点保存的时间点。
  • 生成与传递
    • Source 任务收到保存检查点指令后,在当前数据流中插入该结构。
    • 下游所有任务遇到该结构时,开始对状态做持久化快照保存。
  • 核心作用
    • 利用数据流的顺序处理特性,该结构作为 "分界线":
      • 屏障之前的数据:已处理完成,状态变更会体现在当前检查点中。
      • 屏障之后的数据:状态变更不会体现在当前检查点中,需保存到下一个检查点。
  • 名称由来 :这种特殊数据形式将流上数据按不同检查点分隔开,因此被称为检查点的 "分界线"(Checkpoint Barrier)。
  • 核心过程:
  1. 核心组件 :JobManager 中存在 "检查点协调器",专门负责协调处理检查点相关工作。
  2. 指令下发 :检查点协调器会定期向 TaskManager 发送指令,要求保存检查点(指令中携带检查点 ID)。
  3. Source 任务执行
    • TaskManager 通知所有 Source 任务,将自身的偏移量(算子状态)进行保存。
    • Source 任务将 ** 带有检查点 ID 的分界线(Checkpoint Barrier)** 插入到当前数据流中,并像正常数据一样向下游传递。
    • 完成上述操作后,Source 任务即可继续读取新数据。

上游一个并行度,下游多个并行度,分界线会进行广播

上游多个并行度,下游一个并行度,分界线会进行聚合到一个子任务上。不存在取最小。

三:Barriar对齐精准一次

keyby算子中,上下游进行广播的时候的,等所有的Barrier都到了。再说。

所有Barrier之前的数据,在等待过程中,都不进行处理。可以验证保证数据精准一次。

Barrier到了之后,Barrier之后的元素又到了,那么就不处理!因为处理有可能把状态给改掉,导致状态持久化之后,数据错乱。

四:Barriar对齐的至少一次

上边哪种会应用处理速度,所以,这是优化版本Flink1.1版本提供的。

如果对时效性要求特别高,对准确性没有那么高。如果keyby之后某个上游算子的barrier来的特别早,然后紧接着又来了谁,精准一次就不会在处理。但是至少一次就会在等待其他barrier的时候把这条数据给处理掉。这样状态中就有可能保留了这条数据。

后续检查点恢复的时候, 可能会造成这条数据重复消费。

这种就叫Barrier对齐至少一次。其中某个算子可能只收到了部分barrier。

五:非Barrier对齐的精准一次

时效性又好,又准确。

keyby之后,有任何一个bariier的数据到了,直接开发备份,然后把其他检查点到了之后,把他们的数据也保存持久化下来。也就是存的不仅仅是状态,还有在途的数据。

相关推荐
AC赳赳老秦2 小时前
OpenClaw核心命令详解(常用指令+实战示例,高效开启自动化工作)
大数据·运维·人工智能·自动化·ai-native·deepseek·openclaw
yumgpkpm2 小时前
Apache Spark 和 Flink,处理实时大数据流对比(Cloudera CDH、CDP)
flink·spark·apache
黎阳之光2 小时前
黎阳之光:十五五规划下,以5G+AI全栈技术重塑零碳园区“信息高速路”
大数据·人工智能·5g·安全·智慧城市
九河云2 小时前
云供应链安全:第三方 SaaS 服务的风险评估与管控
大数据·运维·安全·架构·数字化转型
Simon_lca2 小时前
CABELAS 验厂完整科普:审核规则、核心要求与实操注意事项全解
大数据·人工智能·经验分享·微信·制造
青主创享阁3 小时前
玄晶引擎XgenCore Works V2.8.1升级解析 技术迭代赋能场景 代理模式全新落地
大数据·人工智能·代理模式
laozhao43211 小时前
科大讯飞中标教育管理应用升级开发项目
大数据·人工智能
GIS数据转换器12 小时前
延凡城市生命线系统
大数据·人工智能·信息可视化·数据挖掘·无人机
运维行者_13 小时前
网络监控方案从零开始 -- 企业级完整指南
大数据·运维·服务器·网络·数据库·人工智能·自动化