Flink DataGen SQL Connector 本地造数、压测、边界数据与“像真数据”的生成技巧

1. 核心概念:bounded vs unbounded

  • 默认 unbounded:无限造数
  • 配置 number-of-rowsbounded:到数量就停
  • 只要 任意字段 用了 sequence,表也会变成 bounded(序列先跑完就结束)

最小示例:

sql 复制代码
CREATE TABLE Orders (
  order_number BIGINT,
  price        DECIMAL(32,2),
  buyer        ROW<first_name STRING, last_name STRING>,
  order_time   TIMESTAMP(3)
) WITH (
  'connector' = 'datagen'
);

2. 三个最常用的全局参数

2.1 控速:rows-per-second

默认 10000 行/秒:

sql 复制代码
WITH (
  'connector' = 'datagen',
  'rows-per-second' = '5000'
)

2.2 有界:number-of-rows

让作业像 batch 一样跑完退出:

sql 复制代码
WITH (
  'connector' = 'datagen',
  'number-of-rows' = '100000'
)

2.3 并行:scan.parallelism

控制 source 并行度(不写就用全局默认):

sql 复制代码
WITH (
  'connector' = 'datagen',
  'scan.parallelism' = '4'
)

3. "像真数据"的关键:字段级配置 fields.#.*

DataGen 的强大在于每个字段都能调:

3.1 random vs sequence(最重要)

  • fields.xxx.kind = random:随机
  • fields.xxx.kind = sequence:从 start 到 end

示例:订单号从 1 到 100000(bounded),价格随机范围 1~999:

sql 复制代码
CREATE TABLE GenOrders (
  order_id BIGINT,
  price    DECIMAL(10,2),
  buyer_id BIGINT,
  ts       TIMESTAMP(3)
) WITH (
  'connector' = 'datagen',
  'rows-per-second' = '20000',

  'fields.order_id.kind' = 'sequence',
  'fields.order_id.start' = '1',
  'fields.order_id.end' = '100000',

  'fields.price.kind' = 'random',
  'fields.price.min' = '1',
  'fields.price.max' = '999',

  'fields.buyer_id.min' = '1',
  'fields.buyer_id.max' = '1000000',

  'fields.ts.max-past' = '10 min'
);

3.2 NULL 注入:null-rate(做脏数据/容错测试必备)

例如 5% 的 buyer_id 为空:

sql 复制代码
'fields.buyer_id.null-rate' = '0.05'

3.3 时间字段:max-past

TIMESTAMP / TIMESTAMP_LTZ 会生成"过去的时间",最大过去范围由 max-past 控制:

sql 复制代码
'fields.order_time.max-past' = '1 h'

注意:文档里强调 TIME/DATE 永远是本机当前时间/日期,所以如果你想更"可控"的时间字段,通常用计算列生成(见第 6 节)。

4. 字符串/字节数组长度:length + var-len

DataGen 对长度约束有三条规则(很容易踩坑):

  • CHAR/BINARY(定长):长度只能在 schema 定,不能自定义
  • VARCHAR/VARBINARY(变长但有上限):fields.#.length 不能超过 schema 定义的长度
  • STRING/BYTES(超长类型):默认 length=100,可设到 < 2^31

示例:seller 是 VARCHAR(150),开启变长生成:

sql 复制代码
CREATE TABLE Orders2 (
  id BIGINT,
  seller VARCHAR(150),
  comment STRING
) WITH (
  'connector' = 'datagen',
  'fields.seller.var-len' = 'true',
  'fields.seller.length' = '150',
  'fields.comment.length' = '2000'
);

5. 集合类型造数:ARRAY / MAP / MULTISET 的长度

默认集合大小是 3,可以用 fields.#.length 指定:

sql 复制代码
CREATE TABLE GenCollections (
  f0 ARRAY<INT>,
  f1 MAP<INT, STRING>,
  f2 MULTISET<INT>
) WITH (
  'connector' = 'datagen',
  'fields.f0.length' = '10',
  'fields.f1.length' = '11',
  'fields.f2.length' = '12'
);

这个特别适合验证:下游 sink(比如 ES/OpenSearch)对嵌套结构的序列化、映射、字段膨胀问题。

6. 高级用法:LIKE 复制真实表结构,再 EXCLUDING ALL

你经常需要"模拟某个真实表",又不想手写 schema。这时就用:

sql 复制代码
CREATE TABLE Orders (
  order_number BIGINT,
  price DECIMAL(32,2),
  buyer ROW<first_name STRING, last_name STRING>,
  order_time TIMESTAMP(3)
) WITH (...真实表的 connector...);

CREATE TEMPORARY TABLE GenOrders
WITH (
  'connector' = 'datagen',
  'number-of-rows' = '10'
)
LIKE Orders (EXCLUDING ALL);

这个模式用于:

  • 在没有真实源的情况下,把 SQL pipeline 先跑通
  • 回归测试时稳定复现 schema 变更带来的影响

7. 常见测试配方(直接抄)

7.1 "压测下游 sink"配方

目标:把 sink(ES/JDBC/HBase)顶满看吞吐/反压

  • rows-per-second
  • 合理 scan.parallelism
  • 关键字段尽量 sequence 避免过多重复(尤其 upsert sink)
sql 复制代码
CREATE TABLE GenHot (
  id BIGINT,
  v  STRING,
  ts TIMESTAMP(3)
) WITH (
  'connector' = 'datagen',
  'rows-per-second' = '200000',
  'scan.parallelism' = '8',

  'fields.id.kind' = 'sequence',
  'fields.id.start' = '1',
  'fields.id.end' = '10000000',

  'fields.v.length' = '200',
  'fields.v.var-len' = 'true',
  'fields.ts.max-past' = '5 min'
);

7.2 "脏数据/空值/长字段"配方

目标:验证 UDF、下游 schema、映射、容错逻辑

sql 复制代码
CREATE TABLE GenDirty (
  id BIGINT,
  name STRING,
  note STRING,
  score INT
) WITH (
  'connector' = 'datagen',
  'rows-per-second' = '5000',

  'fields.name.null-rate' = '0.02',
  'fields.note.length' = '5000',
  'fields.note.var-len' = 'true',

  'fields.score.min' = '-100',
  'fields.score.max' = '200'
);

8. 最容易踩的坑(你一定会遇到)

  • VARCHAR(20) 却配置 fields.xxx.length=200:不生效/报错(长度不能超过 schema)
  • 配了 sequence 还以为是流:只要有 sequence 就可能 bounded(序列先结束)
  • DATE/TIME 不是随机:永远是本机当前日期/时间
  • rows-per-second 太高导致下游反压:你会看到 source 自动被 backpressure 限速(这其实是你想要的压测现象)
相关推荐
安河桥畔2 小时前
Git使用
大数据·git·elasticsearch
Hello.Reader2 小时前
Flink SQL 压测最短闭环Print 验证正确性 + BlackHole 榨干性能上限(附 Join/Agg/TopN/UDF 模板)
大数据·sql·flink
驾数者2 小时前
Flink SQL CDC实时同步:基于Debezium的变更数据捕获
大数据·sql·flink
徐先生 @_@|||2 小时前
基于Spark配置+缓存策略+Junpyter Notebook 实现Spark数据加速调试
大数据·分布式·缓存·spark
合新通信 | 让光不负所托2 小时前
边缘计算节点空间受限,用浸没式液冷光模块能同时满足小型化和高性能需求吗?
大数据·人工智能·阿里云·云计算·边缘计算
方向研究2 小时前
金价上涨
大数据
智子喻2 小时前
2026企业微信社群运营工具专业度排名:AI驱动下的私域增长工具实测
大数据·网络·新媒体运营·企业微信·用户运营
IT大白2 小时前
7、MGR(MySQL Group Replication)
数据库·sql
问今域中2 小时前
使用 JWT 升级 Spring Security 登录认证系统的两个关键问题与解决方案
数据库·sql·oracle