paimon避坑指南

基于paimon-0.8的实践

1.下游实时消费异常

shell 复制代码
2025-08-05 11:24:49.176 ERROR org.apache.paimon.flink.source.ContinuousFileSplitEnumerator  - Failed to enumerate files
org.apache.paimon.table.source.OutOfRangeException: The snapshot with id 1690 has expired. You can: 1. increase the snapshot or changelog expiration time. 2. use consumer-id to ensure that unconsumed snapshots will not be expired.

🔍 异常核心原因

快照过期:Paimon 表的快照(Snapshot)ID 1691 已被清理,导致 Flink 作业无法读取该快照。

常见原因:

a.快照保留时间(snapshot.expire-time)或变更日志(Changelog)保留时间不足。

b.Flink 作业消费速度慢,未能在快照过期前完成读取。

c.未启用消费者组(Consumer ID):若未指定 consumer-id,Paimon 可能无法跟踪未消费的快照,导致快照被提前清理。

设置合适的snapshot保留策略

shell 复制代码
ALTER TABLE a SET ('snapshot.time-retained' = '24h');
ALTER TABLE a SET ('snapshot.expire-time' = '86400000');
--需重启任务才会生效
ALTER TABLE a SET ('snapshot.num-retained.max' = '600','snapshot.num-retained.min' = '300');

2.只要表使用了 merge-engine = partial-update 就必须保持 write-only = false,原因如下:

a. Partial-update 需要在写入端持续做 merge/回填 (Lookup Join),

这依赖写入任务内部的 compaction 线程 来把部分列更新合并成完整行。

一旦 write-only = true,compaction 线程被关闭,merge 动作无法完成 ,会导致: • 读到大量"半成品"行;

• 查询结果不完整或错误;

• 表状态最终不一致。

b. 官方文档与源码校验

• 在 PartialUpdateMergeFunction 初始化时会检查 write-only 标志;

• 如果检测到 write-only = true,会抛出IllegalArgumentException

3.当使用'merge-engine' = 'partial-update',不要设置'sequence.field',否则迟到的数据会被丢弃,如果想要获取完整的chagelog使用'changelog-producer' = 'lookup',或者'changelog-producer' = 'full-compaction'

4.insert overwrite table 异常

bash 复制代码
org.apache.kyuubi.KyuubiSQLException: org.apache.kyuubi.KyuubiSQLException: Error operating ExecuteStatement: org.apache.spark.sql.AnalysisException: Table a does not support dynamic overwrite in batch mode.; OverwritePartitionsDynamic RelationV2

显式启用 Paimon 扩展并开启动态覆盖模式

--conf spark.sql.extensions=org.apache.paimon.spark.extensions.PaimonSparkSessionExtensions

5.使用spark sql写入异常信息

bash 复制代码
org.apache.kyuubi.KyuubiSQLException: org.apache.kyuubi.KyuubiSQLException: Error operating ExecuteStatement: org.apache.spark.sql.AnalysisException: LEGACY store assignment policy is disallowed in Spark data source V2. Please set the configuration spark.sql.storeAssignmentPolicy to other values

Spark 3.x 的 DataSource V2 不再支持 LEGACY 类型的字段类型自动转换策略,你必须把配置 spark.sql.storeAssignmentPolicy 改成 ANSI STRICT

SET spark.sql.storeAssignmentPolicy=STRICT;

6.因compact导致ck总是超时

'changelog-producer.lookup-wait' = 'false'--使用异步look up

相关推荐
ApacheSeaTunnel12 天前
(四)收官篇!从分层架构到数据湖仓架构系列:数据服务层和数据应用层及湖仓技术趋势小结
数据库·开源·数据湖·技术分享·白鲸开源
StarRocks_labs15 天前
StarRocks 4.0:让 Apache Iceberg 数据真正 Query-Ready
apache·数据湖·shuffle·starrocks 4.0·query-ready
ITVV17 天前
湖仓一体部署
大数据·数据湖·湖仓一体
黄雪超19 天前
从流批一体到湖仓一体架构演进的思考
大数据·架构·数据湖
zhangkaixuan45620 天前
Flink 写入 Paimon 流程:Checkpoint 与 Commit 深度剖析
java·开发语言·微服务·flink·paimon
黄雪超21 天前
Paimon——官网阅读:理解文件
大数据·数据湖·paimon
zhangkaixuan45624 天前
Apache Paimon 查询全流程深度分析
java·apache·paimon
zhangkaixuan45625 天前
Apache Paimon 写入流程
java·大数据·apache·paimon
dundunmm1 个月前
【每天一个知识点】数据湖(Data Lake)与数据仓库(Data Warehouse)
数据仓库·数据湖