Flink从入门到上天系列第二十篇:Flink当中的Barrier算法

一:对齐算法场景说明

备份的时候,为什么必须要Barrier,保障每个算子状态是将一条数据完整处理完毕的。

在Flink中,采用了基于Chandy-Lamport算法的分布式快照,可以在不暂停整体流处理的前提下,将状态备份保存到检查点。

二:检查点的分界线

  • 设计思想:借鉴水位线的设计,在数据流中插入一种特殊数据结构,用于标记触发检查点保存的时间点。
  • 生成与传递
    • Source 任务收到保存检查点指令后,在当前数据流中插入该结构。
    • 下游所有任务遇到该结构时,开始对状态做持久化快照保存。
  • 核心作用
    • 利用数据流的顺序处理特性,该结构作为 "分界线":
      • 屏障之前的数据:已处理完成,状态变更会体现在当前检查点中。
      • 屏障之后的数据:状态变更不会体现在当前检查点中,需保存到下一个检查点。
  • 名称由来 :这种特殊数据形式将流上数据按不同检查点分隔开,因此被称为检查点的 "分界线"(Checkpoint Barrier)。
  • 核心过程:
  1. 核心组件 :JobManager 中存在 "检查点协调器",专门负责协调处理检查点相关工作。
  2. 指令下发 :检查点协调器会定期向 TaskManager 发送指令,要求保存检查点(指令中携带检查点 ID)。
  3. Source 任务执行
    • TaskManager 通知所有 Source 任务,将自身的偏移量(算子状态)进行保存。
    • Source 任务将 ** 带有检查点 ID 的分界线(Checkpoint Barrier)** 插入到当前数据流中,并像正常数据一样向下游传递。
    • 完成上述操作后,Source 任务即可继续读取新数据。

上游一个并行度,下游多个并行度,分界线会进行广播

上游多个并行度,下游一个并行度,分界线会进行聚合到一个子任务上。不存在取最小。

三:Barriar对齐精准一次

keyby算子中,上下游进行广播的时候的,等所有的Barrier都到了。再说。

所有Barrier之前的数据,在等待过程中,都不进行处理。可以验证保证数据精准一次。

Barrier到了之后,Barrier之后的元素又到了,那么就不处理!因为处理有可能把状态给改掉,导致状态持久化之后,数据错乱。

四:Barriar对齐的至少一次

上边哪种会应用处理速度,所以,这是优化版本Flink1.1版本提供的。

如果对时效性要求特别高,对准确性没有那么高。如果keyby之后某个上游算子的barrier来的特别早,然后紧接着又来了谁,精准一次就不会在处理。但是至少一次就会在等待其他barrier的时候把这条数据给处理掉。这样状态中就有可能保留了这条数据。

后续检查点恢复的时候, 可能会造成这条数据重复消费。

这种就叫Barrier对齐至少一次。其中某个算子可能只收到了部分barrier。

五:非Barrier对齐的精准一次

时效性又好,又准确。

keyby之后,有任何一个bariier的数据到了,直接开发备份,然后把其他检查点到了之后,把他们的数据也保存持久化下来。也就是存的不仅仅是状态,还有在途的数据。

相关推荐
gaoshengdainzi12 分钟前
GB/T23448-2019卫生洁具软管专用检测设备全套解决方案
大数据·卫生洁具软管检测设备·软管试验机
茶靡花开04151 小时前
什么是DMS经销商管理系统?经销商管理系统哪个好?
大数据·人工智能
Gofarlic_OMS2 小时前
HyperWorks用户仿真行为分析与许可证资源分点配置
java·大数据·运维·服务器·人工智能
fire-flyer2 小时前
ClickHouse系列(二):MergeTree 家族详解
大数据·数据库·clickhouse
lifallen2 小时前
Flink Agent:RunnerContext 注入与装配演进分析
java·大数据·人工智能·语言模型·flink
QDYOKR1682 小时前
一文了解什么是OKR
大数据·人工智能·笔记·钉钉·企业微信
Elastic 中国社区官方博客2 小时前
Elasticsearch:运用 JINA 来实现多模态搜索的 RAG
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索·jina
lifewange2 小时前
Git版本管理
大数据·git·elasticsearch
面向Google编程2 小时前
从零学习Kafka:位移与高水位
大数据·后端·kafka
谁似人间西林客2 小时前
工业大数据时代,企业如何打破数据孤岛?
大数据