Flink 系列之二十二 - 高级概念 - 保存点

之前做过数据平台,对于实时数据采集,使用了Flink。现在想想,在数据开发平台中,Flink的身影几乎无处不在,由于之前是边用边学,总体有点混乱,借此空隙,整理一下Flink的内容,算是一个知识积累,同时也分享给大家。

注意由于框架不同版本改造会有些使用的不同,因此本次系列中使用基本框架是 Flink-1.19.x,Flink支持多种语言,这里的所有代码都是使用java,JDK版本使用的是19
代码参考:https://github.com/forever1986/flink-study.git

目录

  • [1 保存点(Savepoints )](#1 保存点(Savepoints ))
  • [2 检查点(Checkpoints)和保存点(Savepoints )的区别](#2 检查点(Checkpoints)和保存点(Savepoints )的区别)
  • [3 功能和限制](#3 功能和限制)
  • [4 保存点(Savepoints )演示](#4 保存点(Savepoints )演示)
    • [4.1 启动standalone集群](#4.1 启动standalone集群)
    • [4.2 编写代码](#4.2 编写代码)
    • [4.3 编译和打包](#4.3 编译和打包)
    • [4.4 启动netcat](#4.4 启动netcat)
    • [4.5 提交任务](#4.5 提交任务)
    • [4.6 输入测试数据](#4.6 输入测试数据)
    • [4.7 取消任务并记录保存点](#4.7 取消任务并记录保存点)
    • [4.8 从保存点恢复](#4.8 从保存点恢复)
    • [4.9 测试结果](#4.9 测试结果)

上一章讲了 检查点(Checkpoints) ,关于Flink的恢复还有另外一个是 保存点(Savepoints ) 。这一章就来说一下 保存点(Savepoints ) 的内容以及如何从 检查点(Checkpoints)保存点(Savepoints ) 恢复数据

1 保存点(Savepoints )

保存点(Savepoints ) 是依据 Flink 检查点(Checkpoints) 机制所创建的流作业执行状态的一致镜像。 可以使用 **保存点(Savepoints )**进行 Flink 作业的停止与重启、fork 或者更新。 **保存点(Savepoints )**由两部分组成:

  • 稳定存储:例如 HDFS,S3等,包含二进制文件的目录(通常很大),和元数据文件(相对较小)。 稳定存储上的文件表示作业执行状态的数据镜像。
  • 元数据文件:以(相对路径)的形式包含(主要)指向作为 Savepoint 一部分的稳定存储上的所有文件的指针。

2 检查点(Checkpoints)和保存点(Savepoints )的区别

从概念上讲,Flink 的 检查点(Checkpoints)保存点(Savepoints ) 的不同之处类似于传统数据库系统中的备份与恢复日志之间的差异。
检查点(Checkpoints) 的主要目的是为意外失败的作业提供恢复机制。 检查点(Checkpoints) 的生命周期 由 Flink 管理, 即 Flink 创建,管理和删除 checkpoint - 无需用户交互。 由于 检查点(Checkpoints) 被动触发,且被用于作业恢复,所以 检查点(Checkpoints) 的实现有两个设计目标:i)轻量级创建 ii)尽可能快地恢复。 可能会利用某些特定的属性来达到这个目标,因此会被一些内容所限制。

保存点(Savepoints ) 内部使用与 检查点(Checkpoints) 相同的机制创建,但它们在概念上有所不同,并且生成和恢复的成本可能会更高一些。 保存点(Savepoints ) 的设计更侧重于可移植性和操作灵活性,尤其是在 job 变更方面。 保存点(Savepoints ) 的用例是针对计划中的、手动的运维。例如,可能是更新 Flink 版本,更改你的作业图等等。

总结一下区别:

\ 检查点(Checkpoints) 保存点(Savepoints )
触发方式 被动 主动
生命周期管理 Flink管理 用户自己管理
作用 主要用于故障恢复 主要用于保存或移植
兼容性

3 功能和限制

下表概述了各种情况进行恢复时, 检查点(Checkpoints)保存点(Savepoints ) 的功能和限制。

✓ - Flink 完全支持这种类型的快照

x - Flink 不支持这种类型的快照

! - 虽然这些操作目前有效,但 Flink 并未正式保证对它们的支持,因此它们存在一定程度的风险

\ 标准 Savepoint 原生 Savepoint 对齐 Checkpoint 非对齐 Checkpoint
更换状态后端 x x x
State Processor API (写) x x x
State Processor API (读) ! ! x
自包含和可移动 x x
Schema 变更 ! ! !
任意 job 升级 x
非任意 job 升级
Flink 小版本升级 x
Flink bug/patch 版本升级
扩缩容

4 保存点(Savepoints )演示

示例说明:以wordcount代码为示例,演示保存点(Savepoints )的保存与恢复。这里利用在《系列之二 - 集群和部署》中部署的standalone集群进行提交任务

4.1 启动standalone集群

bash 复制代码
./start-cluster.sh

可以看到启动结果

打开控制台

4.2 编写代码

1)在lesson12子模块中新增SavepointDemo 类

java 复制代码
import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.util.Collector;

public class SavepointDemo {

    public static void main(String[] args) throws Exception {

        // 1.创建执行环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        // 2.数据处理
        env
                .socketTextStream("clickhouse1", 9999)
                .flatMap(new Tokenizer())
                .keyBy(value -> value.f0)
                .sum(1)
                 .print();
        // 3.执行
        env.execute();
    }

    /**
     * 自定义切分句子的分词器,遇到空格、标点符合都是切割,并输出的是一个Tuple2
     */
    public static final class Tokenizer
            implements FlatMapFunction<String, Tuple2<String, Integer>> {

        @Override
        public void flatMap(String value, Collector<Tuple2<String, Integer>> out) {
            String[] tokens = value.toLowerCase().split("\\W+");
            for (String token : tokens) {
                if (!token.isEmpty()) {
                    out.collect(new Tuple2<>(token, 1));
                }
            }
        }
    }
}

4.3 编译和打包

1)将使用maven打包,得到 lesson12-1.0-SNAPSHOT.jar

4.4 启动netcat

之前在《系列之二 - 集群和部署》中已经在clickhouse1的机子上安装了netcat,这里直接运行即可

bash 复制代码
nc -lk 9999

4.5 提交任务

将打包完成的lesson12-1.0-SNAPSHOT.jar放到准备提交的机器,示例这里是在clickhouse1这台机器上面,这里根据你自己的机器,提交任务

bash 复制代码
./flink run -d -m clickhouse1:8081 -c com.demo.lesson12.SavepointDemo ./lesson12-1.0-SNAPSHOT.jar

4.6 输入测试数据

1)在netcat中输入"hello flink"

2)从控制台可以看到打印结果

知识点:此时的hello=1次,flink=1次。下次从保存点恢复时,看看这个计数会不会从1次开始累加

4.7 取消任务并记录保存点

1)在控制台可以找到Job任务id

2)执行取消命令(注意:id是前面得到的任务id,保存点的路径,这里自己定义,示例中就保存在本地路径:/home/linmoo/Downloads/flink-1.19.2/checkpoints 下面):

bash 复制代码
./flink cancel -s file:///home/linmoo/Downloads/flink-1.19.2/checkpoints bb2727fa5e3792b0c2ee8299997fd538

3)执行结果

4)查看保存路径/home/linmoo/Downloads/flink-1.19.2/checkpoints是否存储已经保存的保存点

4.8 从保存点恢复

1)关闭netcat,然后在重新开启

2)确认保存点的路径,示例这里是:/home/linmoo/Downloads/flink-1.19.2/checkpoints/savepoint-bb2727-a2bd05969a0a

3)执行重新提交任务,这里会通过-s参数传入保存点地址

bash 复制代码
./flink run -d -m clickhouse1:8081 -s file:///home/linmoo/Downloads/flink-1.19.2/checkpoints/savepoint-bb2727-a2bd05969a0a -c com.demo.lesson12.SavepointDemo ./lesson12-1.0-SNAPSHOT.jar

4)提交结果

4.9 测试结果

1)在netcat中输入

2)从控制台看接口,

知识点 :测试netcat输入一次"hello world"和一次"hello flink"

任务的打印的结果是hello累加到3次,flink累加到2次。说明已经从保存点恢复

至此,就演示了如何从 保存点(Savepoints ) 恢复状态数据。检查点的原理是一样的,只需要将路径制定到对应检查点即可,但是请参考前面的《3 功能和限制》,有些情况检查点是无法恢复的。

结语:这一章讲了 保存点(Savepoints ) ,以及演示了如何从 保存点(Savepoints ) 恢复数据。关于 检查点(Checkpoints)保存点(Savepoints ) 就讲完了,下章开始会接触Flink的另外一种API编写方式:SQL方式

相关推荐
cdsmjt34 分钟前
当文化遇见科技:探秘国际数字影像创新生态高地
大数据
T06205142 小时前
【实证分析】上市公司企业风险承担水平数据集(2000-2022年)
大数据·人工智能
G皮T2 小时前
【Elasticsearch】映射:Join 类型、Flattened 类型、多表关联设计
大数据·elasticsearch·搜索引擎·nested·join·多表关联·flattened
G皮T2 小时前
【Elasticsearch】映射:Nested 类型
大数据·elasticsearch·搜索引擎·映射·nested·嵌套类型·mappings
狂奔solar2 小时前
逻辑回归暴力训练预测金融欺诈
大数据·金融·逻辑回归
tcoding3 小时前
《基于Apache Flink的流处理》笔记
笔记·flink·apache
试剂界的爱马仕5 小时前
TCA 循环中间体如何改写肝损伤命运【AbMole】
大数据·人工智能·科技·机器学习·ai写作
Leo.yuan5 小时前
数据湖是什么?数据湖和数据仓库的区别是什么?
大数据·运维·数据仓库·人工智能·信息可视化