Flink DataStream API 消费binlog kafka实践

Flink提供了方便快捷的source类来消费kafka消息,因此只需要定义对应

复制代码
kafka source,配置kafka地址便可以消费kafka消息
KafkaSource<String> kafkaSource = KafkaSourceFactory.createDefaultSource(parameterTool, topic, groupId);
DataStreamSource<String> kafkaStream = env.fromSource(kafkaSource, WatermarkStrategy.noWatermarks(), "Kafka Source"); 

这里有几个问题

如何保证消息的顺序性

首先明白一点kafka能保证分区内有序,所以首先生产端需要保证有序,另外如果kafka是多个分区的,建议按照业务键路由到对应的分区,这样同一条业务数据产生的binlog kafka消息在被消费前是有序的。

如何保证flink消费的有序性呢?一种方式是flink的并行度和kafka分区保持一致或者少于kafka分区数;另外一种方式是使用flink的watermark机制生成 Watermark。而笔者的场景kafka分区只有一个,flink并行度有4个。因此对于笔者而言实际上只有一个flink节点消费kafka。

但是为了提高性能(见下),对数据流进行了keyBy,所以这里的关键是keyBy得是你的业务键

复制代码
// 再按 uuid keyBy,做过滤、MySQL 关联,通过侧输出分流
        SingleOutputStreamOperator<Void> keyedStream = afterMaxUmsId
                .keyBy(YourObject::getUuid)
                .process(new FieldDataEnrichAndRouteKeyedProcessFunction(parameterTool))
                .name("enrich and route");

这里需要注意,只有process里的处理逻辑才会保证数据流是按照你的keyBy进行了分组,如果你再对处理后的流,比如这里的keyedStream再次加工而不进行keyBy,是不会保证按照业务键分组的

如何优化性能,提高消费速度

前文提到,kafka分区只有一个,也就是只有一个实例消费kafka消息,这样消费端很慢,实际上也浪费了flink算子的并行度,因此第一步根据业务键进行了keyBy,分组后便能利用到并行的能力了。

如何避免重复消费

通常业务中会短时间内对同一条数据做多次变更,这样会导致多条binlog消息,如果每条都去处理的话,会造成资源消耗,拖慢整体性能。可以采用flink现成的"时间窗口+聚合函数"方案优化,在一个时间窗口内,仅保留binlog唯一id(ums_id_)最大的一条数据,过滤重复无效更新,降低资源消耗

复制代码
// 按 uuid 分组,5s 滚动窗口内用 aggregate 只保留 umsId 最大的那条
        long windowSec = parameterTool.getLong("window.max.umsId.seconds", 5L);
        DataStream<YourObject> afterMaxUmsId = parsedStream
                .keyBy(WorkRecordBasic::getUuid)
                .window(TumblingProcessingTimeWindows.of(Time.seconds(windowSec)))
                .aggregate(new MaxUmsIdAggregateFunction())
                .name("max umsId in window");
相关推荐
kevin_cat1 小时前
oracle 扩展表空间
数据库·oracle
花间相见2 小时前
【MySQL面试题】—— MySQL面试高频问题汇总:从原理到实战,覆盖90%考点
数据库·mysql·面试
高梦轩2 小时前
MySQL 数据库备份与恢复
数据库·oracle
一直都在5722 小时前
Redis(二)
数据库·redis·缓存
TDengine (老段)2 小时前
TDengine IDMP 工业数据建模 —— 属性
大数据·数据库·人工智能·时序数据库·tdengine·涛思数据
爱丽_3 小时前
Redis 分布式锁:SET NX、过期时间、续租、可重入、Redlock 与坑
数据库·redis·分布式
IT小崔3 小时前
SqlSugar 使用教程
数据库·后端
GIS阵地4 小时前
QgsProviderMetadata 详解(基于 QGIS 3.40.13 API)
数据库·qt·arcgis·oracle·gis·开源软件·qgis
qq_366086224 小时前
sql server OUTER APPLY使用
数据库·sql·mysql
Sunshine for you4 小时前
使用Flask快速搭建轻量级Web应用
jvm·数据库·python