用 Flink DataStream API 搭建流式 ETL从无状态到有状态、从单流到连接流

1. 为什么用 DataStream 做 ETL?

ETL 的本质:从多源抽取 → 转换/富化 → 入库/下发

在 Flink 里你有两条主路:

  • Table/SQL API:声明式、上手快、适合标准 ETL 场景;
  • DataStream API灵活可编程、对自定义序列化/复杂业务逻辑/低延迟控制更友好。

建议:以 SQL 为主,遇到复杂逻辑/时序/状态机型问题切到 DataStream。理解 DataStream 的底层模型,会让你在 SQL 瓶颈时有"降级控制"的抓手。

2. 可流式的数据与序列化选型

  • Flink 原生序列化支持:基础类型 (String/Long/...)、TuplesTuple0~Tuple25)、POJOs(满足 public 类、无参构造、字段可见或有 getter/setter)。
  • 其他类型回退 Kryo ;也可使用 Avro(强 schema、跨语言好)。
  • 建议 :业务事件→POJO/Avro;原型/临时脚本→Tuple 均可。

Tuple 示例:

java 复制代码
Tuple2<String, Integer> person = Tuple2.of("Fred", 35);
String name = person.f0; // 下标从0开始
Integer age  = person.f1;

POJO 示例(支持 schema 演进):

java 复制代码
public class Person {
  public String name;
  public Integer age;
  public Person() {}
  public Person(String name, Integer age) { this.name = name; this.age = age; }
}

3. 无状态转换:map / flatMap 富化与拆分

场景 :把出租车行程(TaxiRide)按经纬度映射到 ~100×100m 网格,补充 startCell/endCell 字段。

java 复制代码
public static class EnrichedRide extends TaxiRide {
  public int startCell, endCell;
  public EnrichedRide() {}
  public EnrichedRide(TaxiRide r) {
    this.rideId = r.rideId; this.isStart = r.isStart; /*...*/
    this.startCell = GeoUtils.mapToGridCell(r.startLon, r.startLat);
    this.endCell   = GeoUtils.mapToGridCell(r.endLon,   r.endLat);
  }
}

DataStream<TaxiRide> rides = env.addSource(new TaxiRideSource(...));

// 1→1 用 map
DataStream<EnrichedRide> enriched = rides
  .filter(new RideCleansingSolution.NYCFilter())
  .map((MapFunction<TaxiRide, EnrichedRide>) EnrichedRide::new);

// 1→N 或 0→1 用 flatMap(可发零个或多个)
DataStream<EnrichedRide> enriched2 = rides.flatMap((ride, out) -> {
  if (new RideCleansing.NYCFilter().filter(ride)) out.collect(new EnrichedRide(ride));
});

要点

  • map():严格一进一出。
  • flatMap():更自由,配合 Collector 发 0...N 个记录,更适合"过滤 + 拆分"。

4. Keyed Streams:按键分区与聚合

把相同 key 的事件路由到同一并行子任务,才能维护独立状态或做分组聚合。

java 复制代码
enriched.keyBy(r -> r.startCell);

⚠️ 代价 :每次 keyBy 都会触发 网络 shuffle (序列化+网络+反序列化)。
建议:合并相邻的算子链、减少不必要的重分区。

按键聚合示例:求每个起点单元的"最长行程(分钟)"

java 复制代码
DataStream<Tuple2<Integer, Minutes>> minutesByStartCell = enriched.flatMap((ride, out) -> {
  if (!ride.isStart) {
    Minutes dur = new Interval(ride.startTime, ride.endTime).toDuration().toStandardMinutes();
    out.collect(Tuple2.of(ride.startCell, dur));
  }
});

minutesByStartCell
  .keyBy(v -> v.f0) // startCell
  .maxBy(1)         // 对 duration 取最大
  .print();

隐式状态maxBy 背后,Flink 为每个 key 维护"当前最大值"。
风险无界 key 数 → 状态无界膨胀。
建议 :在窗口 内聚合(滚动/滑动/会话窗口),或引入TTL/清理策略

为什么交给 Flink:

  • 本地访问 (内存级速度)、自动 Checkpoint (容错)、RocksDB 托底 (磁盘扩容)、横向扩展(重分布)。

去重示例:只保留每个 key 的第一条

java 复制代码
public static class Deduplicator extends RichFlatMapFunction<Event, Event> {
  private ValueState<Boolean> seen;

  @Override public void open(OpenContext ctx) {
    seen = getRuntimeContext().getState(new ValueStateDescriptor<>("seen", Types.BOOLEAN));
  }

  @Override public void flatMap(Event e, Collector<Event> out) throws Exception {
    if (seen.value() == null) { // 首次出现
      out.collect(e);
      seen.update(true);
    }
  }
}

看到一个 ValueState<Boolean>,实际是分布式分片的键值存储:每个并行实例只持有自己 key 分片的那部分。

状态生命周期与清理

  • 显式清理seen.clear()(如 key 长期不活跃后)
  • 状态 TTL :在 StateDescriptor 上配置,自动过期
  • 复杂时序清理:结合 ProcessFunction + Timers(定时器回调里清状态)

6. Connected Streams:用"控制流"动态改变业务逻辑

典型用法:在线下发规则/阈值/黑白名单,实时影响主数据流的处理。

java 复制代码
DataStream<String> control = env.fromData("DROP", "IGNORE").keyBy(x -> x);
DataStream<String> words   = env.fromData("Apache", "DROP", "Flink", "IGNORE").keyBy(x -> x);

control.connect(words).flatMap(new ControlFunction()).print();

public static class ControlFunction extends RichCoFlatMapFunction<String, String, String> {
  private ValueState<Boolean> blocked;

  @Override public void open(OpenContext ctx) {
    blocked = getRuntimeContext().getState(new ValueStateDescriptor<>("blocked", Boolean.class));
  }
  @Override public void flatMap1(String ctrl, Collector<String> out) { blocked.update(true); }
  @Override public void flatMap2(String word, Collector<String> out) throws Exception {
    if (blocked.value() == null) out.collect(word);
  }
}

关键

  • 两条流必须以一致的方式 keyBy,状态才可共享;
  • 回调顺序不可控flatMap1/2 谁先来由运行时决定),时序敏感就缓冲并自定调度

7. 性能与工程化要点

序列化

  • 优先 POJO/Avro;避免不稳定类型(随机、数组、枚举等)作为 key;
  • 自定义类型须保证确定性hashCode/equals

重分区

  • 合理安排 keyBy,避免链路中多次无谓 shuffle;
  • 利用 算子链并行度 调优吞吐。

状态

  • 预估 key 基数与状态大小;无界场景使用 TTL/窗口/清理
  • 大状态选 RocksDBStateBackend,权衡延迟与容量;
  • 配置 Checkpoint (间隔/最小暂停/超时)与 外部化(HDFS/S3)。

一致性

  • 端到端语义(at-least once/exactly once)取决于 source/sink 是否支持 2PC、幂等写等。

可观测性

  • 关注反压、吞吐、延迟、状态大小、GC、checkpoint 时间;
  • Web UI + 指标上报(Prometheus)+ 日志(JM/TM)。

8. 本地开发与调试

  • IDE 断点:DataStream 支持本地调试,能 step into Flink 了解内部。
  • 日志定位 :JM/TM 日志、print() 输出前缀(1> / 2> 表示子任务)。
  • 依赖打包 :集群运行确保所有依赖在各节点可用(推荐 fat-jar/shade)。

9. 一个最小可运行的流式 ETL 骨架

需求:从 Source 读取行程 → NYC 清洗 → 富化网格 → 计算每个起点网格的最长行程 → 打印结果。

java 复制代码
public class NycRideEtlJob {
  public static void main(String[] args) throws Exception {
    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

    DataStream<TaxiRide> rides = env.addSource(new TaxiRideSource(/* cfg */));

    DataStream<EnrichedRide> enriched = rides
      .flatMap(new NYCEnrichment()); // 过滤+富化

    DataStream<Tuple2<Integer, Integer>> longestByCell = enriched
      .flatMap((FlatMapFunction<EnrichedRide, Tuple2<Integer, Integer>>) (ride, out) -> {
        if (!ride.isStart) {
          int minutes = (int)((ride.endTime.getMillis() - ride.startTime.getMillis()) / 60000L);
          out.collect(Tuple2.of(ride.startCell, minutes));
        }
      })
      .keyBy(v -> v.f0) // startCell
      .maxBy(1);        // minutes

    longestByCell.print();

    env.execute("NYC Ride ETL");
  }
}

上线前检查:checkpoint、重启策略、并行度、背压、告警通道、sink 幂等等。

10. 进一步学习与练习

  • Hands-on:Rides & Fares、Ride Cleansing
  • 专题:Stateful Stream Processing、DataStream Transformations
  • 高级:ProcessFunction + Timers、Window/Watermark(事件时间)、ConnectedStreams 做流 join/规则推送、Async I/O 做维表富化
相关推荐
cg.family3 小时前
Flink 2.x 独立集群(Standalone) 的部署
flink
北冥SP4 小时前
etl介绍
数据仓库·etl
Hello.Reader4 小时前
Flink Operations Playground 部署、观测、容错、升级与弹性扩缩
大数据·flink
Hello.Reader8 小时前
从 0 到 1Flink DataStream API 入门与上手实战
大数据·flink
lifallen11 小时前
Flink SourceOperator和WaterMark
大数据·flink
Hello.Reader11 小时前
Flink 流式分析事件时间、Watermark 与窗口
大数据·flink
武子康11 小时前
大数据-107 Flink Apache Flink 入门全解:流批一体的实时计算引擎 从起源到技术特点的全面解析
大数据·后端·flink
大数据0021 小时前
Flink消费Datahub到ClickhouseSink
java·前端·flink
笨手笨脚の1 天前
设计模式-原型模式
java·设计模式·创建型设计模式·原型模式