- 精准一次怎么保证?可以设置为以下2个
- 对齐
- 当有一个barrier比较快时,输入缓冲区阻塞,当另外一个barrier到来时,才进行备份,所以数据不会重复。
- 优点:不会造成数据重复
- 缺点:会造成数据积压,OOM
- 不对齐
- 当有一个barrier到来时,直接将barrier置到最后,然后将所有缓冲区的数据和状态进行备份,然后将kafka提交,然后将慢的barrier也置到最后,将所有缓冲区的数据和状态进行备份,然后将kafka提交。
- 优点:加快了ck
- 缺点:由于备份了大量数据,会造成IO压力大,磁盘存储压力大
- 对齐
- 至少一次怎么保证?
- 对齐
- 当有一个barrier比较快时,输入缓冲区不阻塞,直接向下游流动,而barrier会等待另外一个barrier,当此次ck备份成功后,JM注入新的barrier,然后到一半的时候,备份失败了,kafka回滚,从HDFS中恢复上次的ck,恢复kafka的offset,由于不阻塞,所以会重新从kafka中拉取到重复的数据进行计算,就造成了数据的重复,就是至少一次语义。
- 优点:不阻塞,不会造成数据积压,OOM
- 缺点,会造成数据重复
flink-对齐和不对齐,精准一次和至少一次
青云游子2023-08-14 9:24
相关推荐
狼头长啸李树身2 分钟前
眼儿媚·秋雨绵绵窗暗暗Json_1817901448038 分钟前
商品详情接口使用方法和对接流程如下Data 3171 小时前
Hive数仓操作(十七)bubble小拾5 小时前
ElasticSearch高级功能详解与读写性能调优ZOHO项目管理软件5 小时前
EDM平台大比拼 用户体验与营销效果双重测评HyperAI超神经6 小时前
Meta 首个多模态大模型一键启动!首个多针刺绣数据集上线,含超 30k 张图片Hello.Reader8 小时前
TopK算法在大数据重复数据分析中的应用与挑战数据龙傲天8 小时前
1688商品API接口:电商数据自动化的新引擎Elastic 中国社区官方博客8 小时前
Elasticsearch:使用 LLM 实现传统搜索自动化Jason不在家10 小时前
Flink 本地 idea 调试开启 WebUI