Flink作业骨架结构

前言

Flink 是大数据流计算引擎,开发者通过程序语言开发一个 Flink 作业,然后提交这个作业到服务端并执行,以完成对大数据流的处理。

Flink 作业有一个基本骨架,再复杂的 Flink 作业都离不开这个基本骨架,了解作业的基本骨架有助于我们更快上手 Flink 作业的开发。

骨架结构

Flink 作业的基本骨架包含三个部分:

  • 创建Flink执行环境
  • 定义数据处理逻辑
  • 提交并执行Flink作业

创建Flink执行环境

Flink 执行环境被封装成 StreamExecutionEnvironment 对象,通过该对象,我们可以给Flink作业添加数据源、添加数据处理和输出逻辑、配置Flink作业的并行度、故障重启策略等参数。

定义数据处理逻辑

Flink是大数据流计算引擎,本质上是对大数据的计算处理,那么首先要解决的问题是:数据从哪儿来?

解决这个问题,就是给Flink作业定义数据源,数据源被抽象成了 SourceFunction 接口,实现该接口重写 run 方法即可接收数据。

有了数据,接下来就是声明要对这些数据做哪些处理?对数据的处理被抽象成了 ProcessFunction 接口,实现该接口重写 processElement 方法即可处理一条条数据。常见的数据处理操作有:过滤、转换、聚合等。

数据计算以后,还需要把计算结果给保存下来,所以最后还需要一步数据汇 sink 操作,把计算结果保存到数据存储引擎,例如写入MySQL、Redis等存储引擎。

提交并执行Flink作业

到目前为止,我们只描述了Flink的数据处理逻辑,Flink作业不手动触发的前提下,是不会自动执行的。

所以最后,如果要让上述流程跑起来,还需要手动提交并触发Flink作业。开发环境下,可以直接在本地提交并执行,生产环境一般是提交到Flink集群执行。

执行Flink作业,对应的是 StreamExecutionEnvironment#execute 方法。

字数统计作业

这里以一个统计字数作业作为示例,它被称作是 Flink 版的 Hello World,虽然简单,但是很好的体现了 Flink 作业的流程。

如下代码所示,我们先是创建了Flink作业执行环境对象 StreamExecutionEnvironment,然后定义了数据源监听本地的8888端口读取文本数据。紧接着定义数据处理逻辑,先是过滤操作,只有接收到的字符串是单个英文字母时才处理,然后把单个英文字母映射为WordCount对象,用于统计次数。然后是根据英文字母分组,相同的字母会被分到同一组,最后统计所有相同字母的 count 字段,得到的结果就是字母出现的次数。最终的 sink 操作只是简单的把结果输出到控制台。

java 复制代码
public class WordCountJob {
    public static void main(String[] args) throws Exception {
        // 创建Flink执行环境
        StreamExecutionEnvironment environment = StreamExecutionEnvironment.getExecutionEnvironment();
        // 1. 定义数据源 从Socket读取数据
        environment.socketTextStream("127.0.0.1", 8888)
                // 2. 定义数据处理逻辑
                // 2.1 过滤 接收到的数据必须是英文字母
                .filter(e -> e.length() == 1 && Character.isLetter(e.codePointAt(0)))
                // 2.2 映射 单个字符映射成WordCount对象
                .map(e -> new WordCount(e.toUpperCase(), 1))
                // 2.3 分组 相同字母分为一组
                .keyBy(WordCount::getWord)
                // 2.4 分组后相同字母聚合求和
                .sum("count")
                // 3. 定义数据汇sink 这里输出到控制台
                .addSink(new SinkFunction<WordCount>() {
                    @Override
                    public void invoke(WordCount value, Context context) throws Exception {
                        System.err.println(value.word + ":" + value.count);
                    }
                });
        // 执行Flink作业
        environment.execute();
    }

    @Data
    @AllArgsConstructor
    @NoArgsConstructor
    public static class WordCount {
        public String word;
        public int count;
    }
}

Flink 作业启动时,就会去连接本地的8888端口,如果连接不上,会报错退出。所以启动作业前,需要先保证8888端口开启。所以Mac系统下先打开8888端口:

java 复制代码
nc -l 8888

然后启动 Flink 作业,此时控制台什么也没有,因为数据源没有数据,Flink也就没法处理。然后我们往 8888 端口写点东西

java 复制代码
nc -l 8888
1
a
b
c
a

控制台输出

java 复制代码
A:1
B:1
C:1
A:2

分析一下结果,第一次发出的"1",因为不是英文字母,所以会被filter算子过滤掉。发出第一个"a"时,因为符合条件,所以会被后续所有算子处理,最终到达sink算法,输出到控制台。发出第二个"a"时,因为之前已经有一个a了,所以sum算子求和结果是2。

尾巴

Flink作业的基本骨架包含三部分:创建作业执行环境、定义数据处理逻辑、提交并启动作业。执行环境主要用来对Flink作业进行一些设置,例如 故障重启策略、并行度等参数。定义数据处理逻辑是我们开发Flink作业最重要的部分,首先要定义数据源,告诉Flink数据从哪里来,然后声明要对数据做哪些处理,最终计算结果要保存到哪里等。Flink作业是懒执行的,前面的这些操作都只是对Flink作业的一个声明和描述,必须调用execute方法作业才会真正跑起来。

相关推荐
core5128 小时前
flink sink doris
大数据·mysql·flink·doris·存储·sink·过程正常
天冬忘忧1 天前
Flink优化----数据倾斜
大数据·flink
LonelyProgramme1 天前
Flink定时器
大数据·flink
core5121 天前
Flink SQL Cookbook on Zeppelin 部署使用
flink·notebook·zeppelin·示例·手册
道一云黑板报2 天前
Flink集群批作业实践:七析BI批作业执行
大数据·分布式·数据分析·flink·kubernetes
darkdragonking2 天前
OpenEuler 22.03 安装 flink-1.17.2 集群
flink·openeuler
core5122 天前
flink sink kafka
flink·kafka·sink
节点。csn2 天前
flink集群搭建 详细教程
大数据·服务器·flink
goTsHgo2 天前
Flink 的并行度配置低于Kafka 分区数会出现的问题
flink
Ekine2 天前
【Flink-scala】DataSet编程模型介绍及数据源
人工智能·flink·scala