写过Spark批处理的应该都知道,有一个广播变量broadcast
这样的一个算子,可以优化我们计算的过程,有效的提高效率;同样在Flink中也有broadcast
,简单来说和Spark中的类似,但是有所区别,首先Spark中的broadcast
是静态的数据,而Flink中的broadcast
是动态的,也就是源源不断的数据流.在Flink中会将广播的数据存到state
中.
在Flink中主流数据可以获取state
中的所有状态数据,使用过window
的应该都清楚,当两个streamData
中的数据到达窗口的时间刚好错过时就会发生关联不上的情况,如window
是2S
,sreamData1
到达窗口的时间刚好卡在这个2S
窗口的尾端,而streamData
到达窗口时,这个窗口已经结束了,这种情况就算这两条数据有相同id
也无法进行关联了.
但是broadcast
会将到达的数据都存储在state
中,这样主流到达的每一条数据都可以和state
中的广播流数据进行关联比较.
流程图内容可能不够准确,只是为了看起来方便理解.
-
数据源
powershell# 主流数据 ➜ ~ nc -lk 1234 101,浏览商品,2023-08-02 102,浏览商品,2023-08-02 103,查看商品价格,2023-08-04 101,商品加入购物车,2023-08-03 101,从购物车删除商品,2023-08-03 102,下单,2023-08-02 102,申请延期发货,2023-08-03 103,点击商品详情页,2023-08-04 104,点击收藏,2023-08-05 104,下单,2023-08-05 104,付款,2023-08-06 105,浏览商品,2023-08-07 106,浏览商品,2023-08-07 106,加入购物车,2023-08-08 107,浏览商品,2023-08-10
powershell# 广播流数据 ➜ ~ nc -lk 5678 101,小明 102,张丽 103,公孙飞天 104,王二虎 106,李四 108,赵屋面
-
代码
javaimport org.apache.flink.api.common.state.BroadcastState; import org.apache.flink.api.common.state.MapStateDescriptor; import org.apache.flink.api.common.state.ReadOnlyBroadcastState; import org.apache.flink.api.common.typeinfo.TypeHint; import org.apache.flink.api.common.typeinfo.TypeInformation; import org.apache.flink.api.java.tuple.Tuple2; import org.apache.flink.api.java.tuple.Tuple3; import org.apache.flink.streaming.api.datastream.*; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.functions.co.BroadcastProcessFunction; import org.apache.flink.util.Collector; /** * @Author: J * @Version: 1.0 * @CreateTime: 2023/8/11 * @Description: 多流操作-广播流 **/ public class FlinkBroadcast { public static void main(String[] args) throws Exception { // 构建流环境 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); // 设置并行度 env.setParallelism(3); // 数据集源1作为主流数据(用户行为日志[id,behavior,date]) DataStreamSource<String> sourceStream1 = env.socketTextStream("localhost", 1234); // 将字符串切割处理 SingleOutputStreamOperator<Tuple3<String, String, String>> mainSourceStream = sourceStream1.map(str -> Tuple3.of(str.split(",")[0], str.split(",")[1], str.split(",")[2])).returns(new TypeHint<Tuple3<String, String, String>>() { }); // 数据源2作为广播流数据(用户信息(id,name)) DataStreamSource<String> sourceStream2 = env.socketTextStream("localhost", 5678); // 将字符串切割处理 SingleOutputStreamOperator<Tuple2<String, String>> mapStream2 = sourceStream2.map(str -> Tuple2.of(str.split(",")[0], str.split(",")[1])).returns(new TypeHint<Tuple2<String, String>>() { }); // 将广播流数据源进行广播 /** *参数说明 * 这里需要我们传入一个MapStateDescriptor,其实就是一个Map结构的数据<k,v> * <String, Tuple2<String, String>>,第一个String类型就是广播流和主流连接的字段,在这个代码中就是id,由实际业务决定 * <String, Tuple2<String, String>>,第二个Tuple2<String, String>就是实际广播数据流的数据,由实际业务决定 * "userInfo"就是给一个名字,这个自定义无强制要求 **/ // 先构建一个状态,后面也会使用 MapStateDescriptor<String, Tuple2<String, String>> userInfoState = new MapStateDescriptor<>("userInfo", TypeInformation.of(String.class), TypeInformation.of(new TypeHint<Tuple2<String, String>>() { })); BroadcastStream<Tuple2<String, String>> userInfoBroadStream = mapStream2.broadcast(userInfoState); // 将主流数据和广播流数据使用connect连接 /** * 我们将数据转变成广播流之后,在Flink中也不知哪个数据流需要使用这个广播流(userInfoBroadStream), * 这个时候就需要我们自己将主流数据和该广播流数据进行连接 **/ BroadcastConnectedStream<Tuple3<String, String, String>, Tuple2<String, String>> connectedStream = mainSourceStream.connect(userInfoBroadStream); /** * 在process()中有两类函数供我们选择,KeyedBroadcastProcessFunction和BroadcastProcessFunction, * 这里要注意当"connectedStream"是KeyedStream时选择KeyedBroadcastProcessFunction * 当"connectedStream"不是KeyedStream时选择BroadcastProcessFunction就可以. * 使用keyBy算子返回的就是KeyedStream **/ SingleOutputStreamOperator<String> resultStream = connectedStream.process(new BroadcastProcessFunction<Tuple3<String, String, String>, Tuple2<String, String>, String>() { // 这个方法写主流数据处理逻辑 @Override public void processElement(Tuple3<String, String, String> value, BroadcastProcessFunction<Tuple3<String, String, String>, Tuple2<String, String>, String>.ReadOnlyContext ctx, Collector<String> out) throws Exception { /** * 要注意,这里我们最好从ReadOnlyContext来获取广播状态数据,因为获取只读的状态数据可以保证数据的安全性, * 如果是通过成员变量的方式获取可修改的状态数据,就会存在数据不安全的问题,如在代码逻辑中出现了对状态数据 * 修改的代码,那么共享此状态的并行算子可能看到的状态数据不一致,就会导致数据错误或者代码报错. * 而使用ReadOnlyContext就可以保证processElement这个方法中我们只对状态数据进行读取. **/ ReadOnlyBroadcastState<String, Tuple2<String, String>> broadcastState = ctx.getBroadcastState(userInfoState); if (broadcastState != null) { // 通过主流中的ID作为key获取广播变量中的用户信息 Tuple2<String, String> userInfo = broadcastState.get(value.f0); // 输出数据的形式(id,behavior,date,name) if (userInfo == null) { out.collect(value.f0 + "," + value.f1 + "," + value.f2 + "," + "NULL"); } else { out.collect(value.f0 + "," + value.f1 + "," + value.f2 + "," + userInfo.f1); } } else { out.collect(value.f0 + "," + value.f1 + "," + value.f2 + "," + "NULL"); } } // 这个方法写广播流数据处理逻辑 @Override public void processBroadcastElement(Tuple2<String, String> value, BroadcastProcessFunction<Tuple3<String, String, String>, Tuple2<String, String>, String>.Context ctx, Collector<String> out) throws Exception { // 使用Context获取状态 BroadcastState<String, Tuple2<String, String>> broadcastState = ctx.getBroadcastState(userInfoState); // 将数据存入到状态中 broadcastState.put(value.f0, value); } }); // 打印结果 resultStream.print(); env.execute("Flink broadcast"); } }
-
结果
txt3> 101,浏览商品,2023-08-02,小明 3> 101,商品加入购物车,2023-08-03,小明 3> 102,申请延期发货,2023-08-03,张丽 3> 104,下单,2023-08-05,王二虎 3> 106,浏览商品,2023-08-07,李四 1> 102,浏览商品,2023-08-02,张丽 1> 101,从购物车删除商品,2023-08-03,小明 1> 103,点击商品详情页,2023-08-04,公孙飞天 1> 104,付款,2023-08-06,王二虎 1> 106,加入购物车,2023-08-08,李四 2> 103,查看商品价格,2023-08-04,公孙飞天 2> 102,下单,2023-08-02,张丽 2> 104,点击收藏,2023-08-05,王二虎 2> 105,浏览商品,2023-08-07,NULL 2> 107,浏览商品,2023-08-10,NULL
代码内容就不进行详细解释了,注释基本都写清楚了,如有疑问可评论提问,共同探讨.