flink cdc 原理解读

文章目录

快照阶段

1.根据主键或者非主键把数据分成chunk,每个并行,处理一个chunk,每个chunk,根据切分范围,先同步快照数据,然后要同步lw,到hw 期间的binglog数据,对快照数据进行修正。

增量阶段

1.统计所有chunk ,选择最小的lw作为增量binglog的起点。这里面有注意的一点,只有在已完成的快照分片范围内,并且偏移量高于 high watermark 的 binlog 事件才会被输出。

举例

假设有以下分片和对应的 high watermark:

分片 snapshot-split-0:[0, 1024),high watermark = HW0

分片 snapshot-split-1:[1024, 2048),high watermark = HW1

在这种情况下,增量数据的处理规则如下:

对于分片 snapshot-split-0,只有当 offset > HW0 且事件键在 [0, 1024) 时,增量事件才会输出。

对于分片 snapshot-split-1,只有当 offset > HW1 且事件键在 [1024, 2048) 时,增量事件才会输出。

总结

通过快照分片和 high watermark 机制,Flink CDC 实现了增量快照读取的精确控制。增量事件只有在已完成的快照分片范围内、并且偏移量超过 high watermark 时才会被输出,确保了增量数据与快照数据在顺序性和一致性上的无缝对接

问题
  • 为啥小于hw不输出,实际上小于hw,已经同步快照的阶段处理了
  • 如果遇到事务rallback,如何处理
bash 复制代码
BEGIN;
INSERT INTO orders (id, status) VALUES (1, 'NEW');
UPDATE orders SET status = 'SHIPPED' WHERE id = 1;
ROLLBACK;

在这段事务中,由于执行了 ROLLBACK,这两条操作不会影响数据库的最终状态。在 MySQL 的 binlog 日志中,这一事务会包括 BEGIN 和 ROLLBACK 标记,而不会有 COMMIT 标记。

在 Flink CDC 中的处理流程如下:

读取到 BEGIN 标记后,将该事务视为暂存状态,并缓存该事务的所有变更数据。

读取 INSERT 和 UPDATE 操作,并暂时存储这些变更记录,等待后续的事务提交。

读取到 ROLLBACK 标记后,丢弃当前事务的所有变更数据,并清除缓存,确保这两条未提交的变更不会输出到下游系统。

相关推荐
TGB-Earnest19 分钟前
【py脚本+logstash+es实现自动化检测工具】
大数据·elasticsearch·自动化
大圣数据星球2 小时前
Fluss 写入数据湖实战
大数据·设计模式·flink
suweijie7682 小时前
SpringCloudAlibaba | Sentinel从基础到进阶
java·大数据·sentinel
Data跳动8 小时前
Spark内存都消耗在哪里了?
大数据·分布式·spark
woshiabc1119 小时前
windows安装Elasticsearch及增删改查操作
大数据·elasticsearch·搜索引擎
lucky_syq9 小时前
Saprk和Flink的区别
大数据·flink
lucky_syq9 小时前
流式处理,为什么Flink比Spark Streaming好?
大数据·flink·spark
袋鼠云数栈9 小时前
深入浅出Flink CEP丨如何通过Flink SQL作业动态更新Flink CEP作业
大数据
小白学大数据11 小时前
如何使用Selenium处理JavaScript动态加载的内容?
大数据·javascript·爬虫·selenium·测试工具
15年网络推广青哥11 小时前
国际抖音TikTok矩阵运营的关键要素有哪些?
大数据·人工智能·矩阵