Iceberg 写入和更新模式,COW,MOR(Copy-on-Write,Merge-on-Read)

1. 追加写入

特点

  • 只新增数据,不更新表中已有的数据。

适用场景

  • Spark : 使用 insert into 写入 v1 和 v2 表。
  • Flink Batch : 使用 insert into 写入 v1 和 v2 表。
  • Flink Streaming : 使用 insert into 写入 v1 表。

2. 覆盖写入

特点

  • 覆盖表的指定分区,更新粒度为分区级别。
  • 不进行数据去重,不保证主键唯一性,即使是 v2 表也不例外。

适用场景

  • Spark : 使用 insert overwrite 写入 v1 和 v2 表。
  • Flink Batch : 使用 insert overwrite 写入 v1 和 v2 表。

3. 行级更新

语法

  • Spark 支持 : 使用 merge intodelete fromupdate

更新模式

  • Two modes: Copy-On-Write (CoW) and Merge-On-Read (MOR) with copy-on-write as the default.
  • 可通过以下表参数修改:
表参数
write.delete.mode copy-on-write, merge-on-read
write.merge.mode copy-on-write, merge-on-read
write.update.mode 仅支持 copy-on-write

Copy-On-Write 模式 (CoW)

https://en.wikipedia.org/wiki/Copy-on-write

Copy-On-Write 模式在 v1 表或者 v2 表都可以使用。

工作原理

  1. 读取原始数据: 读取与更新匹配的文件或片段。
  2. 应用更新: 在内存中处理数据,将修改应用于数据。
  3. 写入新文件: 将更新后的数据写入新文件。
  4. 元数据更新: 更新元数据以指向新的数据文件。

特点

  • OLAP 读取友好:

    • 数据一致性:旧文件不受写操作影响。
    • 优化查询性能:新建文件针对大规模查询优化。
    • 避免碎片化:每次修改生成新文件。
  • OLAP写不友好:

    • 高 I/O 开销:需重写整个文件。
    • 长延迟:因需要重写文件和更新元数据。
  • 对 Flink 流式处理不友好:

    • 实时性差:新文件生成和元数据更新延迟。
    • 高延迟读取:处理新文件增加复杂性。

Merge-On-Read 模式 (MOR)

特点

  • 仅适用于设置主键的 v2 表。

工作机制

  • 读取和写入操作:

    • 读取现有记录并写入新文件。
    • 删除文件记录待删除行,数据文件存储新或更新行。
  • 追加机制:

    • 仅追加新文件,不重写整个数据文件。

性能特点

  • 写友好:

    • 优化写操作:追加新文件降低写操作成本。
    • 适合频繁数据更新的用例。
  • OLAP 查询性能:

    • 可能较慢:因合并读取增加计算开销。
  • Flink 流处理友好:

    • 追加特性适应流处理框架,确保高效数据摄取和流读取。
相关推荐
Lx3521 小时前
复杂MapReduce作业设计:多阶段处理的最佳实践
大数据·hadoop
武子康4 小时前
大数据-100 Spark DStream 转换操作全面总结:map、reduceByKey 到 transform 的实战案例
大数据·后端·spark
expect7g5 小时前
Flink KeySelector
大数据·后端·flink
阿里云大数据AI技术21 小时前
StarRocks 助力数禾科技构建实时数仓:从数据孤岛到智能决策
大数据
Lx3521 天前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
武子康1 天前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
阿里云大数据AI技术2 天前
大数据公有云市场第一,阿里云占比47%!
大数据
Lx3522 天前
Hadoop容错机制深度解析:保障作业稳定运行
大数据·hadoop
T06205142 天前
工具变量-5G试点城市DID数据(2014-2025年
大数据
向往鹰的翱翔2 天前
BKY莱德因:5大黑科技逆转时光
大数据·人工智能·科技·生活·健康医疗