大数据-114 Flink DataStreamAPI 从 SourceFunction 到 RichSourceFunction 源函数的增强与实战

点一下关注吧!!!非常感谢!!持续更新!!!

🚀 AI篇持续更新中!(长期更新)

AI炼丹日志-31- 千呼万唤始出来 GPT-5 发布!"快的模型 + 深度思考模型 + 实时路由",持续打造实用AI工具指南!📐🤖

💻 Java篇正式开启!(300篇)

目前2025年09月29日更新到: Java-136 深入浅出 MySQL Spring Boot @Transactional 使用指南:事务传播、隔离级别与异常回滚策略 MyBatis 已完结,Spring 已完结,Nginx已完结,Tomcat已完结,分布式服务正在更新!深入浅出助你打牢基础!

📊 大数据板块已完成多项干货更新(300篇):

包括 Hadoop、Hive、Kafka、Flink、ClickHouse、Elasticsearch 等二十余项核心组件,覆盖离线+实时数仓全栈! 大数据-278 Spark MLib - 基础介绍 机器学习算法 梯度提升树 GBDT案例 详解

章节内容

上节完成了如下的内容:

  • FlinkDataStreamAPI 自定义输入源
  • 非并行源介绍与代码
  • 并行源介绍与代码

Rich并行源

基本介绍

在 Apache Flink 的流处理框架中,RichSourceFunction 是一种功能增强型的源函数(Source Function),它为开发者提供了比普通 SourceFunction 更强大的功能集。RichSourceFunction 主要应用于数据源的定义和实现,能够支持更复杂的业务场景和数据处理需求。

核心特性

  1. 生命周期方法:RichSourceFunction 提供了完整的生命周期管理能力,包括:

    • open():在任务启动时执行初始化操作
    • close():在任务结束时执行清理工作
    • run():定义数据生成逻辑的主体方法
    • cancel():用于优雅地终止数据生成
  2. 状态管理:通过继承 RichFunction 接口,可以访问:

    • 键控状态(Keyed State)
    • 算子状态(Operator State)
    • 状态后端(State Backend)配置
  3. 运行时上下文 :可以通过 getRuntimeContext() 方法获取:

    • 任务执行环境信息
    • 并行度设置
    • 任务实例编号
    • 分布式缓存访问
  4. 配置访问:支持从 Flink 的配置系统中读取参数,实现更灵活的配置方式。

继承关系

RichSourceFunction 的类继承关系如下:

markdown 复制代码
SourceFunction
    ↑
AbstractRichFunction
    ↑
RichSourceFunction

典型应用场景

  1. 需要状态管理的源:例如从断点续传的消息队列中消费数据
  2. 需要访问分布式缓存的源:比如在数据生成时查询外部参考数据
  3. 需要复杂初始化的源:如建立数据库连接、加载配置文件等
  4. 需要精确控制生命周期的源:如资源密集型的数据源

示例代码

java 复制代码
public class CustomRichSource extends RichSourceFunction<String> {
    private transient Connection dbConnection;
    
    @Override
    public void open(Configuration parameters) {
        // 初始化数据库连接
        dbConnection = DriverManager.getConnection("jdbc:mysql://...");
    }
    
    @Override
    public void run(SourceContext<String> ctx) {
        // 从数据库读取数据并发出
        while (isRunning) {
            ResultSet rs = dbConnection.executeQuery(...);
            while (rs.next()) {
                ctx.collect(rs.getString(1));
            }
        }
    }
    
    @Override
    public void cancel() {
        // 设置取消标志
        isRunning = false;
    }
    
    @Override
    public void close() {
        // 关闭数据库连接
        if (dbConnection != null) {
            dbConnection.close();
        }
    }
}

与普通 SourceFunction 的区别

特性 SourceFunction RichSourceFunction
生命周期管理 有限 完整
状态访问 不支持 支持
运行时上下文 不可用 可用
初始化/清理 无法实现 可通过open/close实现
配置参数 需通过构造函数传递 可从配置读取

在实际开发中,RichSourceFunction 更适合处理需要复杂逻辑或资源管理的源操作,而简单的数据源可以直接使用基本的 SourceFunction 实现。

主要特点

  • 生命周期方法:RichSourceFunction 提供了 open() 和 close() 方法,分别在作业开始时和结束时调用。这允许你在数据读取前进行初始化操作(如打开连接、加载配置),以及在作业结束时进行清理工作(如关闭连接、释放资源)。
  • 访问运行时上下文:通过 getRuntimeContext() 方法,RichSourceFunction 可以访问 Flink 的运行时上下文,获取并行度信息、任务名称、指标管理器,以及与状态相关的操作。
  • 状态管理:RichSourceFunction 可以结合 Flink 的状态管理机制,保存和恢复状态。这对于需要在流处理中维护中间状态的源函数非常有用,尤其是在故障恢复时,状态可以帮助恢复到故障前的状态。
  • 并行执行:与普通的 SourceFunction 类似,RichSourceFunction 也可以通过设置并行度来并行执行,这使得它可以处理大规模的数据 源。

状态管理

RichFunction 与 Flink 的状态管理系统高度集成,提供了一套完整的机制来维护和管理操作符的中间状态。这种状态管理能力是 Flink 实现精确一次(exactly-once)语义的核心保障。Flink 的状态后端(State Backend)负责状态的存储和访问,支持多种存储方式包括内存、文件系统和 RocksDB。

Flink 支持四种主要类型的状态,每种状态都有其特定的应用场景:

ValueState

适用于需要保存单个值的场景:

  • 典型应用:计数器(如统计事件数量)、标志位(如处理状态标记)
  • 示例:在数据流处理中统计总交易金额
java 复制代码
ValueState<Double> totalAmount = getRuntimeContext()
    .getStateProsition(new ValueStateDescriptor<>("total-amount", Types.DOUBLE));

ListState

适用于需要保存多个值的场景:

  • 典型应用:窗口计算中的中间结果、历史记录存储
  • 示例:存储最近N次登录失败的IP地址
java 复制代码
ListState<String> failedIPs = getRuntimeContext()
    .getListState(new ListStateDescriptor<>("failed-ips", Types.STRING));

MapState

适用于需要维护键值对的场景:

  • 典型应用:复杂数据关联、用户画像特征存储
  • 示例:维护用户ID到其行为特征的映射
java 复制代码
MapState<String, UserBehavior> userBehaviors = getRuntimeContext()
    .getMapState(new MapStateDescriptor<>("user-behaviors", Types.STRING, Types.POJO(UserBehavior.class)));

ReducingState

适用于需要持续聚合数据的场景:

  • 典型应用:实时计算平均值、最大值等聚合指标
  • 示例:持续计算移动平均温度
java 复制代码
ReducingState<Double> avgTemperature = getRuntimeContext()
    .getReducingState(new ReducingStateDescriptor<>("avg-temp", new AverageReducer(), Types.DOUBLE));

状态的生命周期管理包括状态的注册、初始化、更新和清除。Flink 还提供了状态TTL(Time-To-Live)配置,可以自动清理过期的状态数据。在实际应用中,需要根据业务需求选择合适的状态类型,并考虑状态大小和访问频率对性能的影响。

示例代码

以下是一个使用 RichParallelSourceFunction 的简单示例,展示了如何在 Flink 中实现一个并行的、具有生命周期管理的源函数:

java 复制代码
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.functions.source.RichParallelSourceFunction;

public class MyRichParallelSource extends RichParallelSourceFunction<String> {

    private volatile boolean isRunning = true;

    @Override
    public void open(Configuration parameters) throws Exception {
        // 在任务开始时执行初始化操作
        System.out.println("Task " + getRuntimeContext().getTaskName() + " is starting.");
    }

    @Override
    public void run(SourceContext<String> ctx) throws Exception {
        // 模拟数据流的产生
        while (isRunning) {
            synchronized (ctx.getCheckpointLock()) {
                ctx.collect("Data from task " + getRuntimeContext().getIndexOfThisSubtask());
            }
            Thread.sleep(1000);
        }
    }

    @Override
    public void cancel() {
        isRunning = false;
    }

    @Override
    public void close() throws Exception {
        // 在任务结束时执行清理操作
        System.out.println("Task " + getRuntimeContext().getTaskName() + " is closing.");
    }
}

代码解析

  • open() 方法:在任务开始时调用,适用于进行连接初始化、参数设置等操作。在这个方法中,你可以访问 Flink 的配置和运行时上下文。
  • run() 方法:实现数据源的核心逻辑,这个方法会在源函数启动后被调用。可以使用 ctx.collect() 方法将生成的数据发送到下游处理。
  • cancel() 方法:用于取消任务。当作业被取消或停止时,Flink 会调用这个方法,可以在这里做一些清理工作或者安全地停止数据生成。
  • close() 方法:在任务结束时调用,用于释放资源和进行清理操作。

注意事项

  • 状态一致性:在并行源中,如果需要维护状态,一定要注意状态的一致性和恢复机制,确保在作业恢复时可以正确地恢复数据源的状态。
  • 并行度设置:RichParallelSourceFunction 作为并行源,可以通过 setParallelism 方法设置并行度,确保根据任务的需求合理分配并行实例的数量。

RichParallelSource

java 复制代码
package icu.wzk;

import org.apache.flink.streaming.api.functions.source.RichParallelSourceFunction;

public class RichParallelSourceRich extends RichParallelSourceFunction<String> {

    private long count = 1L;
    private boolean running = true;

    @Override
    public void run(SourceContext<String> ctx) throws Exception {
        while (running) {
            count ++;
            ctx.collect(String.valueOf(count));
            Thread.sleep(1000);
        }
    }

    @Override
    public void cancel() {
        running = false;
    }
}

RichParallelSourceTest

java 复制代码
package icu.wzk;

import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment;

public class RichParallelSourceRichTest {

    public static void main(String[] args) {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        DataStreamSource<String> data = env.getJavaEnv().addSource(new RichParallelSourceRich());
        data.print();
        env.execute("RichParallelSourceRichTest");
    }

}

运行结果

shell 复制代码
3> 10
5> 10
8> 10
6> 10
2> 10
4> 10
7> 10
1> 10
6> 11
5> 11
8> 11
2> 11
3> 11
4> 11
7> 11
1> 11
2> 12
3> 12
...

控制台输出结果如下所示:

为什么 Rich 类使用广泛

  • 生命周期管理:Rich 类提供了 open() 和 close() 方法,允许开发者在任务开始和结束时执行初始化和清理操作。这对于需要设置资源(如数据库连接、文件读写、外部服务连接)的操作非常有用。
  • 运行时上下文访问:通过 getRuntimeContext(),Rich 类可以访问任务的并行度信息、任务名称、子任务索引、状态管理等。对于需要根据任务上下文调整行为或需要跨并行实例共享状态的场景,这些信息是至关重要的。
  • 状态管理:RichFunction 可以方便地与 Flink 的状态管理结合使用。在状态丰富的应用场景(如需要维护中间计算结果、计数器、缓存等)的流处理中,Rich 类显得非常有用。
  • 性能监控:Rich 类允许开发者在 open() 方法中注册 Flink 的度量指标(Metrics),帮助监控和优化作业的性能。

什么时候不用 Rich 类

  • 简单操作:如果你只是需要进行简单的转换或过滤操作,没有复杂的初始化、状态管理或清理需求,那么 Rich 类的额外功能可能并不必要。
  • 高性能要求的场景:在一些对性能要求极高的场景中,尽量减少复杂的操作和额外的上下文访问,直接使用轻量级的 MapFunction、FilterFunction 等可能会有更好的性能表现。
相关推荐
月疯3 小时前
FLASK与JAVA的文件互传(单文件互传亲测)
后端·python·flask
拾忆,想起3 小时前
RabbitMQ事务机制深度剖析:消息零丢失的终极武器
java·开发语言·分布式·后端·rabbitmq·ruby
IvanCodes3 小时前
八、Scala 集合与函数式编程
大数据·开发语言·scala
Terio_my4 小时前
Spring Boot 热部署配置与禁用
java·spring boot·后端
RunningShare4 小时前
云原生时代的数据流高速公路:深入解剖Apache Pulsar的架构设计哲学
大数据·中间件·apache·pulsar
杨超越luckly4 小时前
HTML应用指南:利用POST请求获取全国中国工商农业银行网点位置信息
大数据·前端·html·数据可视化·银行网点
我是华为OD~HR~栗栗呀5 小时前
Java面经(22届考研-华oD)
java·后端·python·华为od·华为
IT_陈寒5 小时前
SpringBoot3踩坑实录:一个@Async注解让我多扛了5000QPS
前端·人工智能·后端
IT学长编程5 小时前
计算机毕业设计 基于Hadoop的信贷风险评估的数据可视化分析与预测系统 大数据毕业设计 Hadoop毕业设计选题【附源码+文档报告+安装调试】
大数据·hadoop·毕业设计·课程设计·毕业论文·信贷风险评估的可视化分析与预测·hadoop大数据