Flink入门(五)--Flink算子

Map

DataStream → DataStream

一个接受一个元素并产生一个元素的函数。

示例

Scala 复制代码
dataStream.map { x => x * 2 }

FlatMap

DataStream → DataStream

一个接受一个元素并产生零个、一个或多个元素的函数。

例如

Scala 复制代码
dataStream.flatMap { str => str.split(" ") }

Filter

DataStream → DataStream

对于每个元素,设定一个布尔函数,并保留那些使函数返回true的元素。

例如

Scala 复制代码
dataStream.filter { _ != 0 }

KeyBy

DataStream → KeyedStream

逻辑上将流划分为不相交的分区。所有具有相同键的记录都被分配到同一个分区中。在内部,keyBy() 是通过哈希分区来实现的。指定键的方式有多种。

注意:没有实现hashcode()方法的POJO类和任何类型的数组都无法作为Key!!!

Reduce

KeyedStream → WindowedStream

该操作会连续地将当前元素与上一个reduce操作的结果(即最后一个reduced值)进行合并,并发出新的合并后的值。这种操作通常用于计算流数据的累积或滚动汇总。

例如

Scala 复制代码
keyedStream.reduce { _ + _ }

Window

KeyedStream → WindowedStream

在已经分区的KeyedStreams上可以定义窗口。窗口根据某些特性(例如,在过去5秒内到达的数据)将每个键中的数据分组。

例如

Scala 复制代码
dataStream
  .keyBy(_._1)
  .window(TumblingEventTimeWindows.of(Time.seconds(5)))

对于窗口有关的知识点可以参考我的另一篇博文

Flink入门(四) -- Flink中的窗口_flink 窗口概念 使用场景-CSDN博客

WindowAll

DataStream → AllWindowedStream

窗口可以在常规数据流(DataStream)上定义。窗口会根据某些特性(例如,在过去5秒内到达的数据)将所有流事件进行分组。

例如

Scala 复制代码
dataStream
  .windowAll(TumblingEventTimeWindows.of(Time.seconds(5)))

Tips:在许多情况下,这是一个非并行转换。对于windowAll操作符,所有记录都将被收集到一个任务中。

Window和WindowAll的异同

特性 Window windowAll
应用场景 适用于已经分区的KeyedStream,对分区内的数据进行窗口化处理 适用于未分区的DataStream,将所有流事件作为一个整体进行窗口化处理
并行度 并行度是任意的,取决于后续算子的配置和KeyedStream的分区数量 并行度固定为1,所有数据都被聚合到一个任务上进行处理
性能影响 由于可以并行处理多个分区的数据,通常具有较好的性能 由于所有数据都被聚合到一个任务上,当数据量较大时可能导致性能瓶颈
使用场景举例 统计每个用户的最近5分钟内的活跃次数等需要按key分别处理的场景 统计整个系统的总活跃用户数等需要对全局数据进行统计的场景,但需注意性能问题
窗口分配器与函数 需要结合窗口分配器(WindowAssigner)和窗口函数(WindowFunction)来定义具体的窗口操作 同样需要结合窗口分配器和窗口函数来定义窗口操作
灵活性 灵活性较高,可以根据不同的key进行分区和窗口化处理 灵活性较低,因为所有数据都被视为一个整体进行处理

Window Apply

WindowedStream → DataStream

Window Apply 是一个操作,它允许你应用一个函数到整个窗口上。这意味着你可以定义一个自定义函数来处理窗口内的所有元素,而不是仅仅对每个元素进行独立的操作。这个操作的结果是产生一个新的 DataStream,其中包含了函数处理每个窗口后的结果。

例如

Scala 复制代码
windowedStream.apply { WindowFunction }

// applying an AllWindowFunction on non-keyed window stream
allWindowedStream.apply { AllWindowFunction }

Union

与sql中union类似

DataStream* → DataStream

两个或多个数据流的联合操作会创建一个新的数据流,该数据流包含所有原始数据流中的所有元素。需要注意的是,如果你将一个数据流与自身进行联合,那么在结果数据流中,每个元素将会出现两次。(不去重不排序)

Join

Join two data streams on a given key and a commonwindow.

Scala 复制代码
dataStream.join(otherStream)
    .where(<key selector>).equalTo(<key selector>)
    .window(TumblingEventTimeWindows.of(Time.seconds(3)))
    .apply { ... }

Interval Join

KeyedStream,KeyedStream → DataStream

例如

假设你有两个数据流:

订单流(Order Stream):包含订单的详细信息,每个订单都有一个唯一的订单ID、用户ID、订单时间戳(下单时间)和订单金额等。

支付流(Payment Stream):包含支付的详细信息,每个支付都有一个唯一的支付ID、对应的订单ID、支付时间戳和支付金额等。

你的任务是分析订单的支付情况,包括支付是否及时(例如,是否在订单下单后的几分钟内完成支付)。这里,intervalJoin 就可以派上用场了。

Scala 复制代码
// this will join the two streams so that
// key1 == key2 && leftTs - 2 < rightTs < leftTs + 2
keyedStream.intervalJoin(otherKeyedStream)
    .between(Time.milliseconds(0), Time.milliseconds(20000)) 
    // lower and upper bound
    .upperBoundExclusive(true) // optional
    .lowerBoundExclusive(true) // optional
    .process(new IntervalJoinFunction() {...})

partition

自定义分区

  • DataStream→DataStream 使用用户定义的分区程序为每个数据元选择目标任务。
Scala 复制代码
dataStream.partitionCustom(partitioner, "someKey");
dataStream.partitionCustom(partitioner, 0);

随机分区

  • DataStream→DataStream 根据均匀分布随机分配数据元。
Scala 复制代码
dataStream.shuffle();

Rebalance (循环分区)

  • DataStream→DataStream 分区数据元循环,每个分区创建相等的负载。在存在数据倾斜时用于性能优化。
Scala 复制代码
dataStream.rebalance();

· rescaling

元素以轮询方式分区到下游操作的一个子集。这在您希望拥有这样的管道时非常有用,例如,从源的每个并行实例分发到几个映射器的子集以分散负载,但又不想触发rebalance()方法所带来的全面重新平衡。这取决于其他配置值(如TaskManager的插槽数),可能只需要本地数据传输,而不需要通过网络传输数据。

上游操作发送元素的下游操作子集取决于上游和下游操作的并行度。例如,如果上游操作有2个并行度,而下游操作有6个并行度,那么一个上游操作会将元素分发到三个下游操作,而另一个上游操作会将元素分发到另外三个下游操作。另一方面,如果下游操作有2个并行度,而上游操作有6个并行度,那么三个上游操作会将元素分发到一个下游操作,而另外三个上游操作会将元素分发到另一个下游操作。

在不同并行度不是彼此倍数的情况下,一个或多个下游操作将从上游操作接收到不同数量的输入。

Scala 复制代码
dataStream.rescale()
相关推荐
zmd-zk16 分钟前
kafka+zookeeper的搭建
大数据·分布式·zookeeper·中间件·kafka
激流丶18 分钟前
【Kafka 实战】如何解决Kafka Topic数量过多带来的性能问题?
java·大数据·kafka·topic
测试界的酸菜鱼35 分钟前
Python 大数据展示屏实例
大数据·开发语言·python
时差95337 分钟前
【面试题】Hive 查询:如何查找用户连续三天登录的记录
大数据·数据库·hive·sql·面试·database
Mephisto.java39 分钟前
【大数据学习 | kafka高级部分】kafka中的选举机制
大数据·学习·kafka
Mephisto.java1 小时前
【大数据学习 | kafka高级部分】kafka的优化参数整理
大数据·sql·oracle·kafka·json·database
道可云1 小时前
道可云人工智能&元宇宙每日资讯|2024国际虚拟现实创新大会将在青岛举办
大数据·人工智能·3d·机器人·ar·vr
成都古河云1 小时前
智慧场馆:安全、节能与智能化管理的未来
大数据·运维·人工智能·安全·智慧城市
软工菜鸡1 小时前
预训练语言模型BERT——PaddleNLP中的预训练模型
大数据·人工智能·深度学习·算法·语言模型·自然语言处理·bert
武子康2 小时前
大数据-212 数据挖掘 机器学习理论 - 无监督学习算法 KMeans 基本原理 簇内误差平方和
大数据·人工智能·学习·算法·机器学习·数据挖掘