flink cdc 原理解读

文章目录

快照阶段

1.根据主键或者非主键把数据分成chunk,每个并行,处理一个chunk,每个chunk,根据切分范围,先同步快照数据,然后要同步lw,到hw 期间的binglog数据,对快照数据进行修正。

增量阶段

1.统计所有chunk ,选择最小的lw作为增量binglog的起点。这里面有注意的一点,只有在已完成的快照分片范围内,并且偏移量高于 high watermark 的 binlog 事件才会被输出。

举例

假设有以下分片和对应的 high watermark:

分片 snapshot-split-0:[0, 1024),high watermark = HW0

分片 snapshot-split-1:[1024, 2048),high watermark = HW1

在这种情况下,增量数据的处理规则如下:

对于分片 snapshot-split-0,只有当 offset > HW0 且事件键在 [0, 1024) 时,增量事件才会输出。

对于分片 snapshot-split-1,只有当 offset > HW1 且事件键在 [1024, 2048) 时,增量事件才会输出。

总结

通过快照分片和 high watermark 机制,Flink CDC 实现了增量快照读取的精确控制。增量事件只有在已完成的快照分片范围内、并且偏移量超过 high watermark 时才会被输出,确保了增量数据与快照数据在顺序性和一致性上的无缝对接

问题
  • 为啥小于hw不输出,实际上小于hw,已经同步快照的阶段处理了
  • 如果遇到事务rallback,如何处理
bash 复制代码
BEGIN;
INSERT INTO orders (id, status) VALUES (1, 'NEW');
UPDATE orders SET status = 'SHIPPED' WHERE id = 1;
ROLLBACK;

在这段事务中,由于执行了 ROLLBACK,这两条操作不会影响数据库的最终状态。在 MySQL 的 binlog 日志中,这一事务会包括 BEGIN 和 ROLLBACK 标记,而不会有 COMMIT 标记。

在 Flink CDC 中的处理流程如下:

读取到 BEGIN 标记后,将该事务视为暂存状态,并缓存该事务的所有变更数据。

读取 INSERT 和 UPDATE 操作,并暂时存储这些变更记录,等待后续的事务提交。

读取到 ROLLBACK 标记后,丢弃当前事务的所有变更数据,并清除缓存,确保这两条未提交的变更不会输出到下游系统。

相关推荐
Ivanqhz14 分钟前
Spark RDD
大数据·分布式·spark
小黑0315 分钟前
Spark SQL DSL
大数据·sql·spark
思通数据1 小时前
AI助力医疗数据自动化:诊断报告识别与管理
大数据·人工智能·目标检测·机器学习·计算机视觉·目标跟踪·自动化
御前一品带刀侍卫2 小时前
springboot整合kafka
大数据·spring boot·kafka
管理大亨2 小时前
大数据之Kafka集群的安装部署
大数据·kafka·linq
dianzouyou1234562 小时前
钉钉与金蝶云星空数据集成:提高企业付款申请单处理效率
大数据·钉钉
数字罗塞塔计划2 小时前
详细议程来啦!“长三角档案数字资源长期保存与数据安全治理”专题培训
大数据·档案·文明
传输能手4 小时前
从三方云服务器将数据迁移至本地,如何保障安全高效?
大数据·服务器·数据库
再拼一次吧5 小时前
Elasticsearch
大数据·elasticsearch·搜索引擎
橙子qyfftf5 小时前
深度了解flink(七) JobManager(1) 组件启动流程分析
大数据·flink