流式数据湖Paimon探秘之旅 (十二) 索引与加速

第12章:索引与加速

导言:加快查询速度的利器

在前面的章节中,我们讲了文件选择、谓词下推等优化手段。但有时候文件太多,统计信息不够精准 ,这时就需要索引来加速查询。


第一部分:Deletion Vector(删除向量)

1.1 什么是删除向量

在主键表中,DELETE操作会创建删除标记,而不是立即删除数据:

ini 复制代码
原始文件:
File_1.parquet
├─ Row 0: key=1, value="Alice"
├─ Row 1: key=2, value="Bob"
├─ Row 2: key=3, value="Charlie"
└─ Row 3: key=4, value="David"

删除操作:DELETE WHERE key=2 或 key=3

使用删除向量标记哪些行被删除:
Deletion Vector: [0, 1, 1, 0]
(第1和2行被标记删除)

读取时:
会跳过被标记的行,只返回:
key=1, value="Alice"
key=4, value="David"

1.2 删除向量的优势

sql 复制代码
传统做法(重写文件):
DELETE → 需要重写整个文件,很大的开销

删除向量(Bitmap标记):
DELETE → 仅添加一个小的DV文件(几KB)
         ↓
         加速查询(跳过被标记行)

对比:
├─ 删除向量:开销低(<1%),查询快(减少不必要的行)
└─ 重写文件:开销高(100%),必须重新处理所有行

1.3 启用删除向量

yaml 复制代码
CREATE TABLE orders (
    order_id BIGINT PRIMARY KEY,
    status STRING,
    ...
) WITH (
    'deletion-vectors.enabled' = 'true'
);

配置影响:
├─ 查询性能:提升5-20%(避免读已删除行)
├─ 存储开销:增加<1%(仅DV文件)
├─ 适用:频繁DELETE的表
└─ 不适用:纯追加表(没有DELETE)

第二部分:文件统计信息

2.1 统计的字段类型

每个文件都维护关键字段的统计:

arduino 复制代码
file_1.parquet
├─ 行数:1000000
├─ 文件大小:128MB
├─ 字段统计:
│   ├─ order_id: min=1, max=1000000, null_count=0
│   ├─ amount: min=10.5, max=9999.99, null_count=100
│   └─ created_at: min=1704067200, max=1704153600, null_count=0
└─ 写入时间:2024-01-01 12:00:00

2.2 使用统计信息进行文件剪枝

arduino 复制代码
查询:SELECT * FROM orders WHERE amount > 5000

文件扫描:
├─ file_1.parquet: min=10.5, max=9999.99
│   → 可能有匹配(max > 5000),保留
├─ file_2.parquet: min=100, max=500
│   → 全部 < 5000,完全排除 ✓
└─ file_3.parquet: min=5010, max=8000
   → 完全匹配(min > 5000),保留

结果:仅读2个文件而不是3个

第三部分:Bloom Filter

3.1 布隆过滤器的原理

ini 复制代码
场景:快速判断一个值是否在集合中

布隆过滤器:
├─ 占用空间小(几KB)
├─ 查询快(O(1))
└─ 可能有假阳性(false positive)但无假阴性

例子:
file_1.parquet 的 key = {1, 3, 5, 7, 9, ...}
  ↓
构建Bloom Filter
  ↓
查询:key=5?
  → 在过滤器中 ✓(可能在文件中)
  ↓
查询:key=6?
  → 不在过滤器中 ✓(肯定不在文件中)

3.2 启用Bloom Filter索引

yaml 复制代码
CREATE TABLE orders (
    order_id BIGINT PRIMARY KEY,
    ...
) WITH (
    'file-index.bloom-filter.enabled' = 'true',
    'file-index.bloom-filter.columns' = 'order_id,user_id'
);

效果:
├─ 点查性能:提升30-50%
├─ 范围扫描:无帮助
└─ 存储开销:+2-5%

第四部分:Metaindex(元索引)

4.1 Metaindex是什么

Metaindex是一个轻量级的索引,记录文件范围:

yaml 复制代码
表有1000个文件,需要查询 order_id=12345 的记录

不用Metaindex:
└─ 逐个检查1000个文件 → 1000次操作

使用Metaindex:
├─ Metaindex记录:
│   file_1: key range 1-1000
│   file_2: key range 1001-2000
│   ...
│   file_13: key range 12001-13000  ← 目标在这里
│   ...
│   file_1000: key range 999001-1000000
│
└─ 直接定位到file_13 → 1次操作!

加速:1000倍!

4.2 启用Metaindex

yaml 复制代码
CREATE TABLE orders (
    order_id BIGINT PRIMARY KEY,
    ...
) WITH (
    'file-index.metaindex.enabled' = 'true'
);

内存占用:O(文件数量)
每个文件记录:~100字节

对于10万文件:
└─ Metaindex大小:~10MB(可完全缓存)

查询加速:
└─ 从O(文件数)降到O(log 文件数)

第五部分:生产级配置

5.1 OLTP场景(在线事务,频繁更新和点查)

yaml 复制代码
CREATE TABLE users (
    user_id BIGINT PRIMARY KEY,
    email STRING,
    phone STRING,
    ...
) WITH (
    'deletion-vectors.enabled' = 'true',
    'file-index.metaindex.enabled' = 'true',
    'file-index.bloom-filter.enabled' = 'true',
    'file-index.bloom-filter.columns' = 'user_id,email'
);

配置说明:
├─ DV:处理DELETE
├─ Metaindex:加速点查(通过key定位文件)
├─ Bloom Filter:排除不相关文件
└─ 预期:点查延迟<50ms

5.2 OLAP场景(分析查询,范围扫描)

yaml 复制代码
CREATE TABLE sales (
    date DATE,
    region STRING,
    amount DECIMAL,
    ...
) WITH (
    'deletion-vectors.enabled' = 'false',  # 无DELETE
    'file-index.metaindex.enabled' = 'true',
    'file-index.bloom-filter.enabled' = 'false'  # 范围扫描无用
);

配置说明:
├─ 不启用DV(无DELETE操作)
├─ Metaindex:辅助分区剪枝
└─ 不启用Bloom Filter(对范围扫描无帮助)

总结

索引的性能收益

索引类型 场景 加速倍数 开销
删除向量 频繁DELETE 5-20% <1%
统计信息 谓词过滤 30-50% 0%
Bloom Filter 点查 30-50% 2-5%
Metaindex 大表点查 10-100倍 0.01%

配置checklist

  • 根据表大小启用Metaindex
  • 对于有DELETE的表启用DV
  • 对于OLTP场景启用Bloom Filter
  • 定期分析索引效果,调整配置

下一章:第13章讲解分区与过期管理!

相关推荐
语落心生39 分钟前
流式数据湖Paimon探秘之旅 (十四) Tag与分支管理
大数据
语落心生40 分钟前
流式数据湖Paimon探秘之旅 (十一) Changelog变更日志
大数据
语落心生40 分钟前
流式数据湖Paimon探秘之旅 (十六) Flink集成深度解析
大数据
数据与后端架构提升之路43 分钟前
自动驾驶仿真数据闭环:如何利用大数据构建“上帝视角”的虚拟矩阵?(硬核指南)
大数据·矩阵·自动驾驶
TDengine (老段)43 分钟前
TDengine 时区函数 TIMEZONE 用户手册
java·大数据·数据库·物联网·时序数据库·tdengine·涛思数据
语落心生44 分钟前
流式数据湖Paimon探秘之旅 (五) 写入流程全解析
大数据
语落心生1 小时前
流式数据湖Paimon探秘之旅 (九) Compaction压缩机制
大数据
语落心生1 小时前
流式数据湖Paimon探秘之旅 (十) Merge Engine合并引擎
大数据
en-route1 小时前
深入理解数据仓库设计:事实表与事实宽表的区别与应用
大数据·数据仓库·spark