CDH 6.3.2 集群外挂部署 Spark 3.5.7 连接 Paimon 1.1.1 (一)

为了解决CDH 6.3.2 默认的 Hive sql on Spark 和 Spark sql (Spark版本为2.4.0)无法写入修改Paimon 1.1.1 版本的表格数据的问题。

这里我先使用Flink SQL创建测试表:

sql 复制代码
-- 创建paimon的catalog
CREATE CATALOG paimon_catalog WITH (
  'type'        = 'paimon',
  'warehouse'   = 'hdfs:///user/hive/warehouse',
  'metastore'   = 'hive',
  'hive-conf-dir' = '/etc/hive/conf.cloudera.hive'
);
​
use catalog paimon_catalog;
​
use ods;
​
-- 创建测试表
CREATE TABLE paimon_test (
    id          INT,
    name        STRING,
    age         INT,
    city        STRING,
    update_time TIMESTAMP(3),
    PRIMARY KEY (id) NOT ENFORCED
) WITH (
    'changelog-producer' = 'full-compaction',
    'write-mode'         = 'change-log'
);

之后在hue上执行如下操作:

sql 复制代码
show tables;

发现插入数据出现报错,因此hue上不能进行数据的插入,因此我在Flink SQL进行数据的插入。

sql 复制代码
INSERT INTO ods.paimon_test
VALUES
 (1,'Alice',23,'Shanghai',TIMESTAMP '2025-12-03 10:00:00'),
 (2,'Bob',30,'Beijing',TIMESTAMP '2025-12-03 10:01:00'),
 (3,'Carol',25,'Guangzhou',TIMESTAMP '2025-12-03 10:02:00'),
 (4,'David',28,'Shenzhen',TIMESTAMP '2025-12-03 10:03:00'),
 (5,'Eve',22,'Hangzhou',TIMESTAMP '2025-12-03 10:04:00'),
 (6,'Frank',35,'Chengdu',TIMESTAMP '2025-12-03 10:05:00'),
 (7,'Grace',27,'Wuhan',TIMESTAMP '2025-12-03 10:06:00'),
 (8,'Henry',29,'Xian',TIMESTAMP '2025-12-03 10:07:00'),
 (9,'Ivy',24,'Nanjing',TIMESTAMP '2025-12-03 10:08:00'),
(10,'Jack',31,'Tianjin',TIMESTAMP '2025-12-03 10:09:00');

在hue上进行查看数据

sql 复制代码
select * from paimon_test limit 5;

在终端执行下述语句,用于验证hive sql on spark对paimon表数据的更新操作。[这是在CDH6.3.2的客户端机器上执行]

bash 复制代码
hive  -e "SET hive.execution.engine=spark;
SET hive.spark.client.extra.jar.path=/home/bigdata/CDH/lib/hive/auxlib/paimon-hive-connector-2.1-cdh-6.3-1.1.1.jar;
SET spark.master=yarn;
SET spark.submit.deployMode=client;
SET spark.driver.memory=1g;
SET spark.executor.memory=2g;
SET spark.executor.cores=2;
SET spark.executor.instances=2;
SET spark.yarn.executor.memoryOverhead=512m;
USE paimon;
DELETE FROM hive_paimon_t1 WHERE id = 12;"

出现如下报错:

在CDH6.3.2集群节点(这里我选择的第一个节点10.x.xx.201),执行下述语句:

bash 复制代码
hive  -e "SET hive.execution.engine=spark;
SET hive.spark.client.extra.jar.path=/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/hive/auxlib/paimon-hive-connector-2.1-cdh-6.3-1.1.1.jar;
SET spark.master=yarn;
SET spark.submit.deployMode=client;
SET spark.driver.memory=1g;
SET spark.executor.memory=2g;
SET spark.executor.cores=2;
SET spark.executor.instances=2;
SET spark.yarn.executor.memoryOverhead=512m;
USE paimon;
DELETE FROM hive_paimon_t1 WHERE id = 12;"

不论是客户端节点还是集群节点都出现了同样的报错。根本原因是Hive 在 CDH6.3.2 里默认使用「非事务」表(或虽然表属性里写了 transactional=true,但底层事务管理器仍然是org.apache.hadoop.hive.ql.lockmgr.DummyTxnManager)。

而 DELETE/UPDATE 语法只能在工作在「ACID 事务表」上,且必须满足下面 3 个条件:

  1. 表本身以 ORC 格式、分桶、transactional=true 的方式创建;

  2. HiveServer/Metastore 端启用了事务功能(hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager);

  3. 当前会话把事务开关打开(set hive.txn.manager=...; set hive.support.concurrency=true; set hive.enforce.bucketing=true; set hive.exec.dynamic.partition.mode=nonstrict;)。

只要其中任何一步没配好,Hive 就会抛出 「Attempt to do update or delete using transaction manager that does not support these operations」。 Paimon 表(paimon-hive-connector)目前只支持INSERT / SELECT / MERGE-INTO并不支持 Hive 原生语法的 DELETE WHERE / UPDATE,所以即使 Hive 端 ACID 已配好,这条 DELETE 也依旧会报同样的错。为了解决如上出现的问题,需要在CDH 6.3.2 版本上编译支持java8,能对paimon 1.1.1 的表进行增删改查等操作。因此这里选择的编译spark版本为3.5.7。

后续编译步骤参考CDH 6.3.2 集群外挂部署 Spark 3.5.7 连接 Paimon 1.1.1 (二):CDH 6.3.2 集群外挂部署 Spark 3.5.7 连接 Paimon 1.1.1 (二)-CSDN博客

相关推荐
2501_948114246 小时前
2026年大模型API聚合平台技术评测:企业级接入层的治理演进与星链4SAPI架构观察
大数据·人工智能·gpt·架构·claude
黎阳之光6 小时前
黎阳之光:视频孪生领跑者,铸就中国数字科技全球竞争力
大数据·人工智能·算法·安全·数字孪生
专注API从业者7 小时前
淘宝商品详情 API 与爬虫技术的边界:合法接入与反爬策略的技术博弈
大数据·数据结构·数据库·爬虫
V搜xhliang02467 小时前
AI大模型在临床决策与手术机器人领域的应用
大数据·人工智能·机器人
A__tao7 小时前
Elasticsearch Mapping 一键生成 Proto 文件(支持嵌套 + 注释过滤)
大数据·elasticsearch·jenkins
Gofarlic_OMS8 小时前
装备制造企业Fluent许可证成本分点典型案例
java·大数据·开发语言·人工智能·自动化·制造
程序员雷欧8 小时前
大模型应用开发学习第八天
大数据·人工智能·学习
liukuang1108 小时前
伊利、蒙牛、飞鹤与光明乳业:存量时代的攻守之道与价值分化
大数据·人工智能·物联网
supericeice9 小时前
创邻科技 AI智算一体机:支持 DeepSeek 671B 与 Qwen3 单机部署,覆盖纯CPU到多GPU多机扩展
大数据·人工智能·科技