Iceberg 写入和更新模式,COW,MOR(Copy-on-Write,Merge-on-Read)

1. 追加写入

特点

  • 只新增数据,不更新表中已有的数据。

适用场景

  • Spark : 使用 insert into 写入 v1 和 v2 表。
  • Flink Batch : 使用 insert into 写入 v1 和 v2 表。
  • Flink Streaming : 使用 insert into 写入 v1 表。

2. 覆盖写入

特点

  • 覆盖表的指定分区,更新粒度为分区级别。
  • 不进行数据去重,不保证主键唯一性,即使是 v2 表也不例外。

适用场景

  • Spark : 使用 insert overwrite 写入 v1 和 v2 表。
  • Flink Batch : 使用 insert overwrite 写入 v1 和 v2 表。

3. 行级更新

语法

  • Spark 支持 : 使用 merge intodelete fromupdate

更新模式

  • Two modes: Copy-On-Write (CoW) and Merge-On-Read (MOR) with copy-on-write as the default.
  • 可通过以下表参数修改:
表参数
write.delete.mode copy-on-write, merge-on-read
write.merge.mode copy-on-write, merge-on-read
write.update.mode 仅支持 copy-on-write

Copy-On-Write 模式 (CoW)

https://en.wikipedia.org/wiki/Copy-on-write

Copy-On-Write 模式在 v1 表或者 v2 表都可以使用。

工作原理

  1. 读取原始数据: 读取与更新匹配的文件或片段。
  2. 应用更新: 在内存中处理数据,将修改应用于数据。
  3. 写入新文件: 将更新后的数据写入新文件。
  4. 元数据更新: 更新元数据以指向新的数据文件。

特点

  • OLAP 读取友好:

    • 数据一致性:旧文件不受写操作影响。
    • 优化查询性能:新建文件针对大规模查询优化。
    • 避免碎片化:每次修改生成新文件。
  • OLAP写不友好:

    • 高 I/O 开销:需重写整个文件。
    • 长延迟:因需要重写文件和更新元数据。
  • 对 Flink 流式处理不友好:

    • 实时性差:新文件生成和元数据更新延迟。
    • 高延迟读取:处理新文件增加复杂性。

Merge-On-Read 模式 (MOR)

特点

  • 仅适用于设置主键的 v2 表。

工作机制

  • 读取和写入操作:

    • 读取现有记录并写入新文件。
    • 删除文件记录待删除行,数据文件存储新或更新行。
  • 追加机制:

    • 仅追加新文件,不重写整个数据文件。

性能特点

  • 写友好:

    • 优化写操作:追加新文件降低写操作成本。
    • 适合频繁数据更新的用例。
  • OLAP 查询性能:

    • 可能较慢:因合并读取增加计算开销。
  • Flink 流处理友好:

    • 追加特性适应流处理框架,确保高效数据摄取和流读取。
相关推荐
Cvmax7 小时前
xStocks.fi:DeFi 领域的代币化股票与 ETF 创新
大数据·人工智能·区块链
YLXA8 小时前
6. cuda reduce kernel
大数据
无忧智库8 小时前
破局大模型“语料荒”:国家级高质量中文多模态语料库处理平台的深度解构与实战指南(WORD)
大数据·人工智能
大大大大晴天8 小时前
Hudi生产问题排障-insert overwrite 路径不存在
大数据·spark
综合热讯8 小时前
香港启世集团宣布启动核聚变能源研究计划
大数据·人工智能·能源
数字化顾问8 小时前
(85页PPT)麦肯锡XX集团财务管理体系构建咨询规划报告(附下载方式)
大数据·人工智能
Gain_chance8 小时前
Flume01:大数据日志收集与传输利器
大数据·数据仓库·flume
zandy10118 小时前
告别指标混乱:衡石指标中台如何通过“原子化指标+语义层”统一企业数据语言
大数据·指标中台
冯RI375II694878 小时前
欧盟EU 10/2011与LFGB的差异对比
大数据
cramer_50h9 小时前
更新-常用的Flask第三方扩展库清单合集教程和详细的代码示例
大数据