Flink DataGen SQL Connector 本地造数、压测、边界数据与“像真数据”的生成技巧

1. 核心概念:bounded vs unbounded

  • 默认 unbounded:无限造数
  • 配置 number-of-rowsbounded:到数量就停
  • 只要 任意字段 用了 sequence,表也会变成 bounded(序列先跑完就结束)

最小示例:

sql 复制代码
CREATE TABLE Orders (
  order_number BIGINT,
  price        DECIMAL(32,2),
  buyer        ROW<first_name STRING, last_name STRING>,
  order_time   TIMESTAMP(3)
) WITH (
  'connector' = 'datagen'
);

2. 三个最常用的全局参数

2.1 控速:rows-per-second

默认 10000 行/秒:

sql 复制代码
WITH (
  'connector' = 'datagen',
  'rows-per-second' = '5000'
)

2.2 有界:number-of-rows

让作业像 batch 一样跑完退出:

sql 复制代码
WITH (
  'connector' = 'datagen',
  'number-of-rows' = '100000'
)

2.3 并行:scan.parallelism

控制 source 并行度(不写就用全局默认):

sql 复制代码
WITH (
  'connector' = 'datagen',
  'scan.parallelism' = '4'
)

3. "像真数据"的关键:字段级配置 fields.#.*

DataGen 的强大在于每个字段都能调:

3.1 random vs sequence(最重要)

  • fields.xxx.kind = random:随机
  • fields.xxx.kind = sequence:从 start 到 end

示例:订单号从 1 到 100000(bounded),价格随机范围 1~999:

sql 复制代码
CREATE TABLE GenOrders (
  order_id BIGINT,
  price    DECIMAL(10,2),
  buyer_id BIGINT,
  ts       TIMESTAMP(3)
) WITH (
  'connector' = 'datagen',
  'rows-per-second' = '20000',

  'fields.order_id.kind' = 'sequence',
  'fields.order_id.start' = '1',
  'fields.order_id.end' = '100000',

  'fields.price.kind' = 'random',
  'fields.price.min' = '1',
  'fields.price.max' = '999',

  'fields.buyer_id.min' = '1',
  'fields.buyer_id.max' = '1000000',

  'fields.ts.max-past' = '10 min'
);

3.2 NULL 注入:null-rate(做脏数据/容错测试必备)

例如 5% 的 buyer_id 为空:

sql 复制代码
'fields.buyer_id.null-rate' = '0.05'

3.3 时间字段:max-past

TIMESTAMP / TIMESTAMP_LTZ 会生成"过去的时间",最大过去范围由 max-past 控制:

sql 复制代码
'fields.order_time.max-past' = '1 h'

注意:文档里强调 TIME/DATE 永远是本机当前时间/日期,所以如果你想更"可控"的时间字段,通常用计算列生成(见第 6 节)。

4. 字符串/字节数组长度:length + var-len

DataGen 对长度约束有三条规则(很容易踩坑):

  • CHAR/BINARY(定长):长度只能在 schema 定,不能自定义
  • VARCHAR/VARBINARY(变长但有上限):fields.#.length 不能超过 schema 定义的长度
  • STRING/BYTES(超长类型):默认 length=100,可设到 < 2^31

示例:seller 是 VARCHAR(150),开启变长生成:

sql 复制代码
CREATE TABLE Orders2 (
  id BIGINT,
  seller VARCHAR(150),
  comment STRING
) WITH (
  'connector' = 'datagen',
  'fields.seller.var-len' = 'true',
  'fields.seller.length' = '150',
  'fields.comment.length' = '2000'
);

5. 集合类型造数:ARRAY / MAP / MULTISET 的长度

默认集合大小是 3,可以用 fields.#.length 指定:

sql 复制代码
CREATE TABLE GenCollections (
  f0 ARRAY<INT>,
  f1 MAP<INT, STRING>,
  f2 MULTISET<INT>
) WITH (
  'connector' = 'datagen',
  'fields.f0.length' = '10',
  'fields.f1.length' = '11',
  'fields.f2.length' = '12'
);

这个特别适合验证:下游 sink(比如 ES/OpenSearch)对嵌套结构的序列化、映射、字段膨胀问题。

6. 高级用法:LIKE 复制真实表结构,再 EXCLUDING ALL

你经常需要"模拟某个真实表",又不想手写 schema。这时就用:

sql 复制代码
CREATE TABLE Orders (
  order_number BIGINT,
  price DECIMAL(32,2),
  buyer ROW<first_name STRING, last_name STRING>,
  order_time TIMESTAMP(3)
) WITH (...真实表的 connector...);

CREATE TEMPORARY TABLE GenOrders
WITH (
  'connector' = 'datagen',
  'number-of-rows' = '10'
)
LIKE Orders (EXCLUDING ALL);

这个模式用于:

  • 在没有真实源的情况下,把 SQL pipeline 先跑通
  • 回归测试时稳定复现 schema 变更带来的影响

7. 常见测试配方(直接抄)

7.1 "压测下游 sink"配方

目标:把 sink(ES/JDBC/HBase)顶满看吞吐/反压

  • rows-per-second
  • 合理 scan.parallelism
  • 关键字段尽量 sequence 避免过多重复(尤其 upsert sink)
sql 复制代码
CREATE TABLE GenHot (
  id BIGINT,
  v  STRING,
  ts TIMESTAMP(3)
) WITH (
  'connector' = 'datagen',
  'rows-per-second' = '200000',
  'scan.parallelism' = '8',

  'fields.id.kind' = 'sequence',
  'fields.id.start' = '1',
  'fields.id.end' = '10000000',

  'fields.v.length' = '200',
  'fields.v.var-len' = 'true',
  'fields.ts.max-past' = '5 min'
);

7.2 "脏数据/空值/长字段"配方

目标:验证 UDF、下游 schema、映射、容错逻辑

sql 复制代码
CREATE TABLE GenDirty (
  id BIGINT,
  name STRING,
  note STRING,
  score INT
) WITH (
  'connector' = 'datagen',
  'rows-per-second' = '5000',

  'fields.name.null-rate' = '0.02',
  'fields.note.length' = '5000',
  'fields.note.var-len' = 'true',

  'fields.score.min' = '-100',
  'fields.score.max' = '200'
);

8. 最容易踩的坑(你一定会遇到)

  • VARCHAR(20) 却配置 fields.xxx.length=200:不生效/报错(长度不能超过 schema)
  • 配了 sequence 还以为是流:只要有 sequence 就可能 bounded(序列先结束)
  • DATE/TIME 不是随机:永远是本机当前日期/时间
  • rows-per-second 太高导致下游反压:你会看到 source 自动被 backpressure 限速(这其实是你想要的压测现象)
相关推荐
pearbing1 小时前
天猫UV量提高实用指南:找准方向,稳步突破流量瓶颈
大数据·uv·天猫uv量提高·天猫uv量·uv量提高·天猫提高uv量
Dxy12393102162 小时前
Elasticsearch 索引与映射:为你的数据打造一个“智能仓库”
大数据·elasticsearch·搜索引擎
岁岁种桃花儿3 小时前
Kafka从入门到上天系列第一篇:kafka的安装和启动
大数据·中间件·kafka
麦聪聊数据3 小时前
为何通用堡垒机无法在数据库运维中实现精准风控?
数据库·sql·安全·低代码·架构
Apache Flink3 小时前
Apache Flink Agents 0.2.0 发布公告
大数据·flink·apache
永霖光电_UVLED3 小时前
打造更优异的 UVB 激光器
大数据·制造·量子计算
m0_466525293 小时前
绿盟科技风云卫AI安全能力平台成果重磅发布
大数据·数据库·人工智能·安全
晟诺数字人4 小时前
2026年海外直播变革:数字人如何改变游戏规则
大数据·人工智能·产品运营
vx_biyesheji00014 小时前
豆瓣电影推荐系统 | Python Django 协同过滤 Echarts可视化 深度学习 大数据 毕业设计源码
大数据·爬虫·python·深度学习·django·毕业设计·echarts
2501_943695334 小时前
高职大数据与会计专业,考CDA证后能转纯数据分析岗吗?
大数据·数据挖掘·数据分析