Flink DataGen SQL Connector 本地造数、压测、边界数据与“像真数据”的生成技巧

1. 核心概念:bounded vs unbounded

  • 默认 unbounded:无限造数
  • 配置 number-of-rowsbounded:到数量就停
  • 只要 任意字段 用了 sequence,表也会变成 bounded(序列先跑完就结束)

最小示例:

sql 复制代码
CREATE TABLE Orders (
  order_number BIGINT,
  price        DECIMAL(32,2),
  buyer        ROW<first_name STRING, last_name STRING>,
  order_time   TIMESTAMP(3)
) WITH (
  'connector' = 'datagen'
);

2. 三个最常用的全局参数

2.1 控速:rows-per-second

默认 10000 行/秒:

sql 复制代码
WITH (
  'connector' = 'datagen',
  'rows-per-second' = '5000'
)

2.2 有界:number-of-rows

让作业像 batch 一样跑完退出:

sql 复制代码
WITH (
  'connector' = 'datagen',
  'number-of-rows' = '100000'
)

2.3 并行:scan.parallelism

控制 source 并行度(不写就用全局默认):

sql 复制代码
WITH (
  'connector' = 'datagen',
  'scan.parallelism' = '4'
)

3. "像真数据"的关键:字段级配置 fields.#.*

DataGen 的强大在于每个字段都能调:

3.1 random vs sequence(最重要)

  • fields.xxx.kind = random:随机
  • fields.xxx.kind = sequence:从 start 到 end

示例:订单号从 1 到 100000(bounded),价格随机范围 1~999:

sql 复制代码
CREATE TABLE GenOrders (
  order_id BIGINT,
  price    DECIMAL(10,2),
  buyer_id BIGINT,
  ts       TIMESTAMP(3)
) WITH (
  'connector' = 'datagen',
  'rows-per-second' = '20000',

  'fields.order_id.kind' = 'sequence',
  'fields.order_id.start' = '1',
  'fields.order_id.end' = '100000',

  'fields.price.kind' = 'random',
  'fields.price.min' = '1',
  'fields.price.max' = '999',

  'fields.buyer_id.min' = '1',
  'fields.buyer_id.max' = '1000000',

  'fields.ts.max-past' = '10 min'
);

3.2 NULL 注入:null-rate(做脏数据/容错测试必备)

例如 5% 的 buyer_id 为空:

sql 复制代码
'fields.buyer_id.null-rate' = '0.05'

3.3 时间字段:max-past

TIMESTAMP / TIMESTAMP_LTZ 会生成"过去的时间",最大过去范围由 max-past 控制:

sql 复制代码
'fields.order_time.max-past' = '1 h'

注意:文档里强调 TIME/DATE 永远是本机当前时间/日期,所以如果你想更"可控"的时间字段,通常用计算列生成(见第 6 节)。

4. 字符串/字节数组长度:length + var-len

DataGen 对长度约束有三条规则(很容易踩坑):

  • CHAR/BINARY(定长):长度只能在 schema 定,不能自定义
  • VARCHAR/VARBINARY(变长但有上限):fields.#.length 不能超过 schema 定义的长度
  • STRING/BYTES(超长类型):默认 length=100,可设到 < 2^31

示例:seller 是 VARCHAR(150),开启变长生成:

sql 复制代码
CREATE TABLE Orders2 (
  id BIGINT,
  seller VARCHAR(150),
  comment STRING
) WITH (
  'connector' = 'datagen',
  'fields.seller.var-len' = 'true',
  'fields.seller.length' = '150',
  'fields.comment.length' = '2000'
);

5. 集合类型造数:ARRAY / MAP / MULTISET 的长度

默认集合大小是 3,可以用 fields.#.length 指定:

sql 复制代码
CREATE TABLE GenCollections (
  f0 ARRAY<INT>,
  f1 MAP<INT, STRING>,
  f2 MULTISET<INT>
) WITH (
  'connector' = 'datagen',
  'fields.f0.length' = '10',
  'fields.f1.length' = '11',
  'fields.f2.length' = '12'
);

这个特别适合验证:下游 sink(比如 ES/OpenSearch)对嵌套结构的序列化、映射、字段膨胀问题。

6. 高级用法:LIKE 复制真实表结构,再 EXCLUDING ALL

你经常需要"模拟某个真实表",又不想手写 schema。这时就用:

sql 复制代码
CREATE TABLE Orders (
  order_number BIGINT,
  price DECIMAL(32,2),
  buyer ROW<first_name STRING, last_name STRING>,
  order_time TIMESTAMP(3)
) WITH (...真实表的 connector...);

CREATE TEMPORARY TABLE GenOrders
WITH (
  'connector' = 'datagen',
  'number-of-rows' = '10'
)
LIKE Orders (EXCLUDING ALL);

这个模式用于:

  • 在没有真实源的情况下,把 SQL pipeline 先跑通
  • 回归测试时稳定复现 schema 变更带来的影响

7. 常见测试配方(直接抄)

7.1 "压测下游 sink"配方

目标:把 sink(ES/JDBC/HBase)顶满看吞吐/反压

  • rows-per-second
  • 合理 scan.parallelism
  • 关键字段尽量 sequence 避免过多重复(尤其 upsert sink)
sql 复制代码
CREATE TABLE GenHot (
  id BIGINT,
  v  STRING,
  ts TIMESTAMP(3)
) WITH (
  'connector' = 'datagen',
  'rows-per-second' = '200000',
  'scan.parallelism' = '8',

  'fields.id.kind' = 'sequence',
  'fields.id.start' = '1',
  'fields.id.end' = '10000000',

  'fields.v.length' = '200',
  'fields.v.var-len' = 'true',
  'fields.ts.max-past' = '5 min'
);

7.2 "脏数据/空值/长字段"配方

目标:验证 UDF、下游 schema、映射、容错逻辑

sql 复制代码
CREATE TABLE GenDirty (
  id BIGINT,
  name STRING,
  note STRING,
  score INT
) WITH (
  'connector' = 'datagen',
  'rows-per-second' = '5000',

  'fields.name.null-rate' = '0.02',
  'fields.note.length' = '5000',
  'fields.note.var-len' = 'true',

  'fields.score.min' = '-100',
  'fields.score.max' = '200'
);

8. 最容易踩的坑(你一定会遇到)

  • VARCHAR(20) 却配置 fields.xxx.length=200:不生效/报错(长度不能超过 schema)
  • 配了 sequence 还以为是流:只要有 sequence 就可能 bounded(序列先结束)
  • DATE/TIME 不是随机:永远是本机当前日期/时间
  • rows-per-second 太高导致下游反压:你会看到 source 自动被 backpressure 限速(这其实是你想要的压测现象)
相关推荐
lizhihai_9916 小时前
股市学习心得—半导体12种核心材料
大数据·人工智能·学习
ZGi.ai17 小时前
智能客服系统设计:从工单分类到自动派单的工程实现
大数据·人工智能·分类
PaperData17 小时前
2000-2023年地级市数字基础设施评价指标体系
大数据·网络·数据库·人工智能·数据分析·经管
Blockchain Learning17 小时前
去中心化身份(DID)模型解析:区块链如何重塑身份管理?
大数据·去中心化·区块链
xcbrand18 小时前
政府事业机构品牌策划公司哪家可靠
大数据·人工智能·python
程序鉴定师18 小时前
如何选择合适的深圳小程序开发公司?
大数据·小程序
雪碧聊技术18 小时前
组合查询(union)
数据库·sql
晨启AI19 小时前
GPT-5.5 来了!OpenAI 最新提示词指南深度解读
大数据·人工智能·ai·提示词
地球资源数据云19 小时前
中国陆地生态系统主要植物功能特征空间分布数据
大数据·数据库·人工智能·机器学习
金智维科技官方19 小时前
AI智能体在7×24客服场景中的真实表现评估
大数据·人工智能·ai·rpa·智能体