Iceberg 写入和更新模式,COW,MOR(Copy-on-Write,Merge-on-Read)

1. 追加写入

特点

  • 只新增数据,不更新表中已有的数据。

适用场景

  • Spark : 使用 insert into 写入 v1 和 v2 表。
  • Flink Batch : 使用 insert into 写入 v1 和 v2 表。
  • Flink Streaming : 使用 insert into 写入 v1 表。

2. 覆盖写入

特点

  • 覆盖表的指定分区,更新粒度为分区级别。
  • 不进行数据去重,不保证主键唯一性,即使是 v2 表也不例外。

适用场景

  • Spark : 使用 insert overwrite 写入 v1 和 v2 表。
  • Flink Batch : 使用 insert overwrite 写入 v1 和 v2 表。

3. 行级更新

语法

  • Spark 支持 : 使用 merge intodelete fromupdate

更新模式

  • Two modes: Copy-On-Write (CoW) and Merge-On-Read (MOR) with copy-on-write as the default.
  • 可通过以下表参数修改:
表参数
write.delete.mode copy-on-write, merge-on-read
write.merge.mode copy-on-write, merge-on-read
write.update.mode 仅支持 copy-on-write

Copy-On-Write 模式 (CoW)

https://en.wikipedia.org/wiki/Copy-on-write

Copy-On-Write 模式在 v1 表或者 v2 表都可以使用。

工作原理

  1. 读取原始数据: 读取与更新匹配的文件或片段。
  2. 应用更新: 在内存中处理数据,将修改应用于数据。
  3. 写入新文件: 将更新后的数据写入新文件。
  4. 元数据更新: 更新元数据以指向新的数据文件。

特点

  • OLAP 读取友好:

    • 数据一致性:旧文件不受写操作影响。
    • 优化查询性能:新建文件针对大规模查询优化。
    • 避免碎片化:每次修改生成新文件。
  • OLAP写不友好:

    • 高 I/O 开销:需重写整个文件。
    • 长延迟:因需要重写文件和更新元数据。
  • 对 Flink 流式处理不友好:

    • 实时性差:新文件生成和元数据更新延迟。
    • 高延迟读取:处理新文件增加复杂性。

Merge-On-Read 模式 (MOR)

特点

  • 仅适用于设置主键的 v2 表。

工作机制

  • 读取和写入操作:

    • 读取现有记录并写入新文件。
    • 删除文件记录待删除行,数据文件存储新或更新行。
  • 追加机制:

    • 仅追加新文件,不重写整个数据文件。

性能特点

  • 写友好:

    • 优化写操作:追加新文件降低写操作成本。
    • 适合频繁数据更新的用例。
  • OLAP 查询性能:

    • 可能较慢:因合并读取增加计算开销。
  • Flink 流处理友好:

    • 追加特性适应流处理框架,确保高效数据摄取和流读取。
相关推荐
人大博士的交易之路12 分钟前
今日行情明日机会——20251201
大数据·数学建模·数据挖掘·数据分析·缠论·道琼斯结构·涨停板
秋邱21 分钟前
技术深耕:教育 AGI 的能力跃迁与安全加固
大数据·人工智能
HAPPY酷29 分钟前
技术沟通的底层逻辑:用结构化方法提升协作效率
大数据·人工智能
原神启动138 分钟前
云计算大数据——MySQL数据库一(数据库基础与MySQL安装)
大数据·数据库·云计算
金融小师妹1 小时前
AI视角下黄金避风港属性的量化验证:基于2000-2025年历史数据的时序分析
大数据·人工智能·深度学习·1024程序员节
一笑code1 小时前
git常用命令
大数据·git·elasticsearch
8K超高清2 小时前
超高清科技引爆中国电影向“新”力
大数据·运维·服务器·网络·人工智能·科技
弘毅 失败的 mian2 小时前
Git 基本操作
大数据·经验分享·笔记·git·elasticsearch
路边草随风2 小时前
flink实现写orc对数据进行分目录(分区表)写入
java·大数据·flink
Jerry.张蒙2 小时前
SAP传输请求流程:从开发到生产的安全流转
大数据·网络·人工智能·学习·职场和发展·区块链·运维开发