Flink SQL ANALYZE TABLE手动采集表统计信息,让优化器“更懂数据”

1. ANALYZE 是什么,适合用在什么场景

ANALYZE 语句用于为已存在的表采集统计信息(Statistics)并写回 Catalog 。目前 Flink 只支持 ANALYZE TABLE,而且需要你手动触发 ,不会自动采集。 (Apache Nightlies)

常见用途(工程视角):

  1. 批处理场景里,为 join / filter / agg 等提供更可靠的行数与列分布信息(让执行计划更"像样")
  2. 分区表按分区采集统计,避免全表扫描式的统计计算
  3. 数据变更后(重跑/回灌/重分区)重新采集,减少计划误判

注意:当前 ANALYZE TABLE 只支持 Batch 模式 ;并且只支持已存在的物理表 ,如果是 view 或表不存在会抛异常。 (Apache Nightlies)

2. 如何执行 ANALYZE(Java / SQL CLI 都行)

在 Java 里,和 DDL/DML 一样,直接 TableEnvironment.executeSql()

java 复制代码
TableEnvironment tableEnv = TableEnvironment.create(...);

// 非分区表:只采集表级统计(row count)
tableEnv.executeSql("ANALYZE TABLE Store COMPUTE STATISTICS");

// 非分区表:采集表级 + 全列统计
tableEnv.executeSql("ANALYZE TABLE Store COMPUTE STATISTICS FOR ALL COLUMNS");

// 非分区表:只采集指定列统计
tableEnv.executeSql("ANALYZE TABLE Store COMPUTE STATISTICS FOR COLUMNS location");

分区表可以按分区范围采集(下面第 4 节详细讲)。 (Apache Nightlies)

3. 语法总览(背这一条就够了)

sql 复制代码
ANALYZE TABLE [catalog_name.][db_name.]table_name
  PARTITION(partcol1[=val1] [, partcol2[=val2], ...])
  COMPUTE STATISTICS
  [FOR COLUMNS col1 [, col2, ...] | FOR ALL COLUMNS]

关键规则:

  1. 分区表必须带 PARTITION(...) (否则无法识别为分区采集逻辑)。 (Apache Nightlies)
  2. 不写 FOR COLUMNS ... / FOR ALL COLUMNS 时:只采集表级统计 。 (Apache Nightlies)
  3. 指定了列时:会采集列级统计 ;列必须存在且必须是物理列 ,否则抛异常。 (Apache Nightlies)
  4. 非分区表如果写了 PARTITION(...):会抛异常。 (Apache Nightlies)
  5. 指定了分区但分区不存在:会抛异常。 (Apache Nightlies)

4. 分区表怎么采集:采一个分区 / 多个分区 / 全部分区

假设分区表 Orders 的分区列是 (sold_year, sold_month, sold_day),并且存在这些分区: (Apache Nightlies)

  • (2022, 1, 10)
  • (2022, 1, 11)
  • (2022, 2, 10)
  • (2022, 2, 11)

4.1 只采集某一个具体分区

sql 复制代码
ANALYZE TABLE Orders
PARTITION(sold_year='2022', sold_month='1', sold_day='10')
COMPUTE STATISTICS;

(Apache Nightlies)

4.2 采集"一个范围内的多个分区"(部分分区列给定值,剩余不写值)

下面这种写法表示:sold_year=2022 且 sold_month=1sold_day 不限定,因此会覆盖 (2022,1,10) 和 (2022,1,11):

sql 复制代码
ANALYZE TABLE Orders
PARTITION(sold_year='2022', sold_month='1', sold_day)
COMPUTE STATISTICS;

(Apache Nightlies)

4.3 采集所有分区

sql 复制代码
ANALYZE TABLE Orders
PARTITION(sold_year, sold_month, sold_day)
COMPUTE STATISTICS;

(Apache Nightlies)

4.4 分区表采集列级统计(全列 or 指定列)

sql 复制代码
-- 某分区:全列统计
ANALYZE TABLE Orders
PARTITION(sold_year='2022', sold_month='1', sold_day='10')
COMPUTE STATISTICS FOR ALL COLUMNS;

-- 多分区范围:只采 amount、product 两列
ANALYZE TABLE Orders
PARTITION(sold_year='2022', sold_month='1', sold_day)
COMPUTE STATISTICS FOR COLUMNS amount, product;

(Apache Nightlies)

5. 到底采集了哪些列统计(Column Statistics)

当你指定 FOR COLUMNS ...FOR ALL COLUMNS 时,会采集列级统计项(不同类型支持度不同): (Apache Nightlies)

  1. ndv:distinct 值数量(number of distinct values)
  2. nullCount:NULL 数量
  3. avgLen:平均长度(字符串类常见)
  4. maxLen:最大长度(字符串类常见)
  5. minValue / maxValue:最小/最大值(数值/时间类常见)
  6. valueCount:仅 boolean 类型的 value count

6. 类型支持矩阵(哪些类型能采哪些指标)

Flink 文档给出了"类型 vs 指标"的支持情况(Y 支持 / N 不支持)。这里按"你最常用的类型"总结: (Apache Nightlies)

  1. BOOLEAN :支持 nullCountvalueCount;不支持 ndv/min/max/len
  2. 数值类(TINYINT/SMALLINT/INT/BIGINT/FLOAT/DOUBLE/DECIMAL) :支持 ndv/nullCount/min/max
  3. 时间类(DATE/TIME/TIMESTAMP_LTZ/TIMESTAMP) :支持 ndv/nullCount/min/max
  4. 字符串类(CHAR/VARCHAR) :支持 ndv/nullCount/avgLen/maxLen(不支持 min/max 值)
  5. 其它复杂类型 :多数只支持 nullCount,其它通常不支持

另外,定长类型(如 INTEGER/DOUBLE 等)不需要从原始记录采集 avgLen/maxLen。 (Apache Nightlies)

7. 一页结论

  1. ANALYZE TABLE 用于采集并存储统计信息到 Catalog ,目前需要手动触发 。 (Apache Nightlies)
  2. 当前只支持 Batch 模式 ;只支持已存在的物理表 ,view/不存在会报错。 (Apache Nightlies)
  3. 分区表必须写 PARTITION(...),可精确分区、范围分区或全部分区采集。 (Apache Nightlies)
  4. 不指定列时只采表级统计;指定列后才会采列级统计(ndv/nullCount/len/min/max/valueCount 等)。 (Apache Nightlies)
相关推荐
好好沉淀5 小时前
开发过程中动态 SQL 中where 1=1的作用是什么
java·服务器·开发语言·数据库·sql
ggabb5 小时前
新国标电动车爬坡困境:当限速25km/h遭遇安全危机,无责伤亡谁来买单?
大数据·人工智能·安全
小马爱打代码5 小时前
慢SQL:查询、定位分析解决的完整方案
数据库·sql
羑悻的小杀马特5 小时前
破局IoT与大数据协同难题!Apache IoTDB用硬核性能打底、强生态护航,成行业新宠!
大数据·物联网·ai·apache·iotdb
cyhysr5 小时前
oracle的model子句让sql像excel一样灵活2
sql·oracle·excel
程途拾光1585 小时前
企业组织架构图导出Word 在线编辑免费工具
大数据·论文阅读·人工智能·信息可视化·架构·word·流程图
Giser探索家5 小时前
卫星遥感数据核心参数解析:空间分辨率与时间分辨率
大数据·图像处理·人工智能·深度学习·算法·计算机视觉
微盛企微增长小知识5 小时前
2025企业微信智能表格使用全指南:AI驱动的数据管理实战
大数据·人工智能·企业微信
跨境卫士-小汪5 小时前
告别低效详情:A+页面重构亚马逊转化逻辑
大数据·重构·产品运营·跨境电商·防关联