Iceberg在Cloudera CDP集群详细操作步骤

Iceberg在Cloudera CDP集群详细操作步骤

Cloudera Data Platform (CDP )集群 (包括 CDP Private Cloud Base/Experience 7.1.7+CDP Public Cloud )中 详细、可落地的 Apache Iceberg 操作步骤,涵盖环境准备、表创建、数据操作、高级功能及运维验证,适用于生产部署。


一、前提条件确认

1. CDP 环境要求

项目 要求
CDP 版本 Private Cloud ≥ 7.1.7 SP1(推荐 7.2+);Public Cloud 已启用 DE/DW
Spark 版本 Spark 3.1+(CDP 默认提供 Spark 3)
Hive Metastore 必须运行(Iceberg 使用 Hive Catalog)
存储 HDFS / S3A / Ozone(需配置读写权限)
用户权限 具备 Spark/Hive 数据库创建权限 + HDFS/S3 写权限

⚠️ 注意:截至 CDP 7.2,仅支持 Hive Catalog ,不支持 Nessie 或自定义 Catalog


🔧 二、在 CDP Private Cloud 中启用 Iceberg (Cloudera Manager 配置)

步骤 1 :登录 Cloudera Manager (CM

  • 地址:https://<cm-host>:7183
  • 用户:具备 Full Administrator 权限

步骤 2 :配置 Spark 3 启用 Iceberg 扩展

  • 进入 Spark 3 → Configuration
  • 搜索并设置以下参数:
参数名 说明
spark.sql.extensions org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions 启用 Iceberg SQL 扩展(如 MERGE INTO, CALL)
spark.sql.catalog.spark_catalog org.apache.iceberg.spark.SparkSessionCatalog 将默认 catalog 替换为 Iceberg
spark.sql.catalog.spark_catalog.type hive 使用 Hive Metastore 作为元数据源
spark.sql.catalog.spark_catalog.warehouse hdfs://nameservice1/warehouse/iceberg (可选)指定 Iceberg 表默认存储路径

💡 提示:若使用 S3,路径应为 s3a://your-bucket/iceberg-warehouse

步骤 3 :重启 Spark 服务

  • 在 CM 中 重启 Spark 3 History Server 和所有 Gateway 角色

🧪 三、详细操作流程(通过 Spark SQL

以下操作可在 Hue (Impala/Spark SQL )、Beeline 、spark3-sql CLICDE Job 中执行。

步骤 1 :创建数据库和 Iceberg

Sql:

-- 创建专用数据库

CREATE DATABASE IF NOT EXISTS iceberg_demo;

USE iceberg_demo;

-- 创建 Iceberg 表(关键:USING iceberg

CREATE TABLE sales (

order_id BIGINT,

customer_id STRING,

amount DECIMAL(10,2),

order_date DATE,

ts TIMESTAMP

)

USING iceberg

PARTITIONED BY (order_date);

✅ 验证是否为 Iceberg 表:

Sql:

DESCRIBE FORMATTED sales;

检查输出中:

  • Table Type: ICEBERG
  • Provider: iceberg
  • Location: hdfs://.../iceberg_demo.db/sales

步骤 2 :插入数据(Append

Sql:

INSERT INTO sales VALUES

(1001, 'CUST-001', 299.99, DATE '2025-12-17', CURRENT_TIMESTAMP()),

(1002, 'CUST-002', 149.50, DATE '2025-12-17', CURRENT_TIMESTAMP());


步骤 3 :查询与 Time Travel (时间旅行)

查看快照历史

Sql:

SELECT

committed_at,

snapshot_id,

parent_id,

operation

FROM sales.snapshots;

查询当前数据

Sql:

SELECT * FROM sales;

回溯到历史快照(按 ID

Sql:

SELECT * FROM sales VERSION AS OF 123456789012345;

按时间戳查询

Sql:

SELECT * FROM sales FOR TIMESTAMP AS OF '2025-12-17 10:00:00';


步骤 4 :更新与删除(Row-Level Operations

要求:CDP ≥ 7.2,且表未开启 format-version=1(默认 v2 支持 delete)

删除数据

Sql:

DELETE FROM sales WHERE order_id = 1001;

更新数据(使用 MERGE INTO 实现 Upsert

Sql:

-- 创建临时表

CREATE OR REPLACE TEMP VIEW updates AS

SELECT 1002 AS order_id, 'CUST-002-NEW' AS customer_id, 159.99 AS amount;

-- 执行 Merge

MERGE INTO sales t

USING updates s

ON t.order_id = s.order_id

WHEN MATCHED THEN UPDATE SET

customer_id = s.customer_id,

amount = s.amount,

ts = CURRENT_TIMESTAMP()

WHEN NOT MATCHED THEN INSERT *;


步骤 5 :Schema Evolution (安全改表结构)

Sql:

-- 添加新列

ALTER TABLE sales ADD COLUMN channel STRING COMMENT '销售渠道';

-- 重命名列(CDP 7.2+)

ALTER TABLE sales RENAME COLUMN channel TO sales_channel;

-- 删除列(谨慎!)

ALTER TABLE sales DROP COLUMN sales_channel;

✅ 所有变更均记录在 metadata 中,旧快照仍可查询原始 schema。


步骤 6 :分区演化(Partition Evolution

假设原表按 order_date 分区,现需改为按 bucket(customer_id, 8):

Sql:

-- 添加新分区字段(隐式)

ALTER TABLE sales

ADD PARTITION FIELD bucket(customer_id, 8) AS customer_bucket;

-- 后续写入将自动使用新分区策略

INSERT INTO sales VALUES (1003, 'CUST-003', 99.99, DATE '2025-12-18', CURRENT_TIMESTAMP());

🔍 可通过 DESCRIBE sales; 查看分区字段变化。


📂 四、目录结构验证(HDFS/S3

在终端查看表物理结构:

Bash:

hdfs dfs -ls /warehouse/iceberg/iceberg_demo.db/sales/

应看到:

Text:

/metadata/

/data/

  • /metadata/:包含 *.metadata.json、*.snap-*.avro 等元数据文件
  • /data/:按分区组织的 Parquet 文件

🔄 五、跨集群复制(Replication Manager

前提:已安装 Replication Manager (见前文指南)

  • 在 CM → ReplicationCreate Schedule
  • 选择 Hive Replication
  • 配置:
    • Source: 当前集群
    • Destination: 目标集群
    • Tables: iceberg_demo.sales
    • 勾选 "Replicate Iceberg tables using metadata files"
  • 设置调度频率(如每 30 分钟)
  • 激活策略

✅ 目标集群将获得完整快照历史,支持 Time Travel。


🛠 六、故障排查清单

问题现象 检查点
Table type is not ICEBERG 是否漏写 USING iceberg?是否配置了 spark_catalog?
Permission denied on HDFS path 检查 HDFS ACL:hdfs dfs -getfacl /warehouse/iceberg
ClassNotFoundException: IcebergSparkSessionExtensions 确认 Spark 3 parcel 包含 Iceberg(CDP 7.1.7+ 默认包含)
DELETE/MERGE not supported 表是否为 format-version=1?执行 CALL spark_catalog.system.upgrade('iceberg_demo.sales') 升级到 v2
Replication 失败 检查 RM 日志;确认目标集群 Hive Metastore 可写

📊 七、性能与监控建议

优化项 建议
小文件合并 定期执行:CALL spark_catalog.system.rewrite_data_files('iceberg_demo.sales')
过期快照清理 CALL spark_catalog.system.expire_snapshots('iceberg_demo.sales', TIMESTAMP '2025-12-01 00:00:00')
监控 通过 CM → Spark History Server 查看作业耗时;使用 Hue 查看表大小

总结:CDP 中 Iceberg 核心操作流

相关推荐
weixin_395448912 小时前
迁移后的主要升级点(TDA4 相对 TDA2)
人工智能·深度学习·机器学习
光锥智能2 小时前
罗福莉首秀,雷军的AI新战事
人工智能·深度学习·机器学习
高锰酸钾_2 小时前
机器学习-线性回归详解
人工智能·机器学习·线性回归
无敌最俊朗@2 小时前
音频同步:从假时钟到真时钟的蜕变
人工智能
lisw052 小时前
人工智能伦理的演进对科技政策有何影响?
人工智能·科技·机器学习
LYFlied2 小时前
AI时代下的规范驱动开发:重塑前端工程实践
前端·人工智能·驱动开发·ai编程
心疼你的一切2 小时前
使用Transformer构建文本分类器
人工智能·深度学习·神经网络·机器学习·transformer
鹧鸪云光伏2 小时前
如何选择光储一体化方案设计软件
大数据·人工智能·光伏·光储
星诺算法备案2 小时前
读懂大模型备案流程,开启技术安全应用新征程
人工智能·算法·推荐算法·备案