flink cdc 原理解读

文章目录

快照阶段

1.根据主键或者非主键把数据分成chunk,每个并行,处理一个chunk,每个chunk,根据切分范围,先同步快照数据,然后要同步lw,到hw 期间的binglog数据,对快照数据进行修正。

增量阶段

1.统计所有chunk ,选择最小的lw作为增量binglog的起点。这里面有注意的一点,只有在已完成的快照分片范围内,并且偏移量高于 high watermark 的 binlog 事件才会被输出。

举例

假设有以下分片和对应的 high watermark:

分片 snapshot-split-0:[0, 1024),high watermark = HW0

分片 snapshot-split-1:[1024, 2048),high watermark = HW1

在这种情况下,增量数据的处理规则如下:

对于分片 snapshot-split-0,只有当 offset > HW0 且事件键在 [0, 1024) 时,增量事件才会输出。

对于分片 snapshot-split-1,只有当 offset > HW1 且事件键在 [1024, 2048) 时,增量事件才会输出。

总结

通过快照分片和 high watermark 机制,Flink CDC 实现了增量快照读取的精确控制。增量事件只有在已完成的快照分片范围内、并且偏移量超过 high watermark 时才会被输出,确保了增量数据与快照数据在顺序性和一致性上的无缝对接

问题
  • 为啥小于hw不输出,实际上小于hw,已经同步快照的阶段处理了
  • 如果遇到事务rallback,如何处理
bash 复制代码
BEGIN;
INSERT INTO orders (id, status) VALUES (1, 'NEW');
UPDATE orders SET status = 'SHIPPED' WHERE id = 1;
ROLLBACK;

在这段事务中,由于执行了 ROLLBACK,这两条操作不会影响数据库的最终状态。在 MySQL 的 binlog 日志中,这一事务会包括 BEGIN 和 ROLLBACK 标记,而不会有 COMMIT 标记。

在 Flink CDC 中的处理流程如下:

读取到 BEGIN 标记后,将该事务视为暂存状态,并缓存该事务的所有变更数据。

读取 INSERT 和 UPDATE 操作,并暂时存储这些变更记录,等待后续的事务提交。

读取到 ROLLBACK 标记后,丢弃当前事务的所有变更数据,并清除缓存,确保这两条未提交的变更不会输出到下游系统。

相关推荐
小小王app小程序开发1 小时前
任务悬赏小程序深度细分分析:非技术视角下的运营逻辑拆解
大数据·小程序
非极限码农5 小时前
Neo4j图数据库上手指南
大数据·数据库·数据分析·neo4j
莫叫石榴姐6 小时前
SQL百题斩:从入门到精通,一站式解锁数据世界
大数据·数据仓库·sql·面试·职场和发展
Hello.Reader7 小时前
Flink 状态后端(State Backends)实战原理、选型、配置与调优
大数据·flink
dundunmm10 小时前
【每天一个知识点】[特殊字符] 大数据的定义及单位
大数据
IT森林里的程序猿10 小时前
基于Hadoop的京东电商平台手机推荐系统的设计与实现
大数据·hadoop·智能手机
笨蛋少年派10 小时前
MapReduce简介
大数据·mapreduce
秃头菜狗11 小时前
十四、运行经典案例 wordcount
大数据·linux·hadoop
INFINI Labs11 小时前
Elasticsearch 备份:方案篇
大数据·elasticsearch·搜索引擎·gateway·snapshot·backup·ccr
Java战神11 小时前
Hadoop
大数据·hadoop·分布式