Iceberg 写入和更新模式,COW,MOR(Copy-on-Write,Merge-on-Read)

1. 追加写入

特点

  • 只新增数据,不更新表中已有的数据。

适用场景

  • Spark : 使用 insert into 写入 v1 和 v2 表。
  • Flink Batch : 使用 insert into 写入 v1 和 v2 表。
  • Flink Streaming : 使用 insert into 写入 v1 表。

2. 覆盖写入

特点

  • 覆盖表的指定分区,更新粒度为分区级别。
  • 不进行数据去重,不保证主键唯一性,即使是 v2 表也不例外。

适用场景

  • Spark : 使用 insert overwrite 写入 v1 和 v2 表。
  • Flink Batch : 使用 insert overwrite 写入 v1 和 v2 表。

3. 行级更新

语法

  • Spark 支持 : 使用 merge intodelete fromupdate

更新模式

  • Two modes: Copy-On-Write (CoW) and Merge-On-Read (MOR) with copy-on-write as the default.
  • 可通过以下表参数修改:
表参数
write.delete.mode copy-on-write, merge-on-read
write.merge.mode copy-on-write, merge-on-read
write.update.mode 仅支持 copy-on-write

Copy-On-Write 模式 (CoW)

https://en.wikipedia.org/wiki/Copy-on-write

Copy-On-Write 模式在 v1 表或者 v2 表都可以使用。

工作原理

  1. 读取原始数据: 读取与更新匹配的文件或片段。
  2. 应用更新: 在内存中处理数据,将修改应用于数据。
  3. 写入新文件: 将更新后的数据写入新文件。
  4. 元数据更新: 更新元数据以指向新的数据文件。

特点

  • OLAP 读取友好:

    • 数据一致性:旧文件不受写操作影响。
    • 优化查询性能:新建文件针对大规模查询优化。
    • 避免碎片化:每次修改生成新文件。
  • OLAP写不友好:

    • 高 I/O 开销:需重写整个文件。
    • 长延迟:因需要重写文件和更新元数据。
  • 对 Flink 流式处理不友好:

    • 实时性差:新文件生成和元数据更新延迟。
    • 高延迟读取:处理新文件增加复杂性。

Merge-On-Read 模式 (MOR)

特点

  • 仅适用于设置主键的 v2 表。

工作机制

  • 读取和写入操作:

    • 读取现有记录并写入新文件。
    • 删除文件记录待删除行,数据文件存储新或更新行。
  • 追加机制:

    • 仅追加新文件,不重写整个数据文件。

性能特点

  • 写友好:

    • 优化写操作:追加新文件降低写操作成本。
    • 适合频繁数据更新的用例。
  • OLAP 查询性能:

    • 可能较慢:因合并读取增加计算开销。
  • Flink 流处理友好:

    • 追加特性适应流处理框架,确保高效数据摄取和流读取。
相关推荐
数据要素X1 分钟前
寻梦数据空间 | 架构篇:从概念到落地的技术实践与突破性创新
大数据·运维·数据仓库·微服务·数据治理·数据中台·可信数据空间
IT学长编程1 小时前
计算机毕业设计 基于EChants的海洋气象数据可视化平台设计与实现 Python 大数据毕业设计 Hadoop毕业设计选题【附源码+文档报告+安装调试】
大数据·hadoop·python·毕业设计·课程设计·毕业论文·海洋气象数据可视化平台
呆呆小金人2 小时前
SQL入门: HAVING用法全解析
大数据·数据库·数据仓库·sql·数据库开发·etl·etl工程师
Elastic 中国社区官方博客3 小时前
如何减少 Elasticsearch 集群中的分片数量
大数据·数据库·elasticsearch·搜索引擎·全文检索
知识浅谈4 小时前
Elasticsearch 核心知识点全景解读
大数据·elasticsearch·搜索引擎
武子康4 小时前
大数据-120 - Flink滑动窗口(Sliding Window)详解:原理、应用场景与实现示例 基于时间驱动&基于事件驱动
大数据·后端·flink
Hello.Reader4 小时前
Flink 广播状态(Broadcast State)实战从原理到落地
java·大数据·flink
ApacheSeaTunnel4 小时前
从小时级到分钟级:多点DMALL如何用Apache SeaTunnel把数据集成成本砍到1/3?
大数据·开源·数据集成·seatunnel·技术分享
数据要素X4 小时前
寻梦数据空间 | 路径篇:从概念验证到规模运营的“诊-规-建-运”实施指南
大数据·人工智能·数据要素·数据资产·可信数据空间
big-data14 小时前
Paimon系列:主键表流读之changelog producer
大数据