Apache Paimon使用之 Altering Tables

1.改变或增加表属性

设置表属性 write-buffer-size 为256 MB

Flink 引擎

复制代码
ALTER TABLE my_table SET (
    'write-buffer-size' = '256 MB'
);

Spark3引擎

复制代码
ALTER TABLE my_table SET TBLPROPERTIES (
    'write-buffer-size' = '256 MB'
);
2.重命名表

Flink引擎

复制代码
ALTER TABLE my_table RENAME TO my_table_new;

Spark3引擎

最简单的sql调用是

复制代码
ALTER TABLE my_table RENAME TO my_table_new;

可以以这种方式重命名paimon表

复制代码
ALTER TABLE [catalog.[database.]]test1 RENAME to [database.]test2;

不能将Catalog名称放在重命名的表之前,会报错:

复制代码
ALTER TABLE catalog.database.test1 RENAME to catalog.database.test2;

注意:如果使用对象存储,如S3或OSS,请谨慎使用此语法,因为对象存储的重命名不是原子的,如果发生故障,只能移动失败的文件。

3.删除表属性

Flink引擎

复制代码
ALTER TABLE my_table RESET ('write-buffer-size');

Spark3引擎

复制代码
ALTER TABLE my_table UNSET TBLPROPERTIES ('write-buffer-size');
3.添加新列

Flink引擎

复制代码
ALTER TABLE my_table ADD (c1 INT, c2 STRING);

Spark3引擎

复制代码
ALTER TABLE my_table ADD COLUMNS (
    c1 INT,
    c2 STRING
);
4.重命名列名

Flink引擎

复制代码
ALTER TABLE my_table RENAME c0 TO c1;

Spark3引擎

复制代码
ALTER TABLE my_table RENAME COLUMN c0 TO c1;
5.删除列

注意:如果在hive catalog中使用,需要在hive server中禁用hive.metastore.disallow.incompatible.col.type.changes。

Flink引擎

复制代码
ALTER TABLE my_table DROP (c1, c2);

Spark3引擎

复制代码
ALTER TABLE my_table DROP COLUMNS (c1, c2);

6.删除分区

Flink引擎

对于flink sql,可以指定分区列的部分列,也可以同时指定多个分区值。

复制代码
ALTER TABLE MyTable DROP PARTITION (`id` = 1);

ALTER TABLE MyTable DROP PARTITION (`id` = 1, `name` = 'paimon');

ALTER TABLE MyTable DROP PARTITION (`id` = 1), PARTITION (`id` = 2);

Spark3引擎

对于spark sql,需要指定所有分区列。

复制代码
ALTER TABLE MyTable DROP PARTITION (`id` = 1, `name` = 'paimon');
7.更改列是否允许为Null

Flink引擎

复制代码
CREATE TABLE my_table (id INT PRIMARY KEY NOT ENFORCED, coupon_info FLOAT NOT NULL);

-- Change column `coupon_info` from NOT NULL to nullable
ALTER TABLE my_table MODIFY coupon_info FLOAT;

-- Change column `coupon_info` from nullable to NOT NULL
-- If there are NULL values already, set table option as below to drop those records silently before altering table.
SET 'table.exec.sink.not-null-enforcer' = 'DROP';
ALTER TABLE my_table MODIFY coupon_info FLOAT NOT NULL;

Spark3引擎

复制代码
ALTER TABLE my_table ALTER COLUMN coupon_info DROP NOT NULL;

注意:将可Null列更改为NOT NULL目前仅Flink引擎支持。

8.更改列注释

Flink引擎

复制代码
ALTER TABLE my_table MODIFY buy_count BIGINT COMMENT 'buy count';

Spark3引擎

复制代码
ALTER TABLE my_table ALTER COLUMN buy_count COMMENT 'buy count';
9.在指定位置添加列

Flink引擎

复制代码
ALTER TABLE my_table ADD c INT FIRST;

ALTER TABLE my_table ADD c INT AFTER b;

Spark3引擎

复制代码
ALTER TABLE my_table ADD COLUMN c INT FIRST;

ALTER TABLE my_table ADD COLUMN c INT AFTER b;
10.更改现有列的位置

Flink引擎

复制代码
ALTER TABLE my_table MODIFY col_a DOUBLE FIRST;

ALTER TABLE my_table MODIFY col_a DOUBLE AFTER col_b;

Spark3引擎

复制代码
ALTER TABLE my_table ALTER COLUMN col_a FIRST;

ALTER TABLE my_table ALTER COLUMN col_a AFTER col_b;
11.修改列的类型

Flink引擎

复制代码
ALTER TABLE my_table MODIFY col_a DOUBLE;

Spark3引擎

复制代码
ALTER TABLE my_table ALTER COLUMN col_a TYPE DOUBLE;

支持的类型转换

复制代码
https://paimon.apache.org/docs/0.7/how-to/altering-tables/
12.添加watermark

从现有列log_ts添加一个计算列ts,并在列ts上添加一个带有策略ts - INTERVAL '1' HOUR的watermark,该列ts被标记为表my_table的事件时间属性。

复制代码
ALTER TABLE my_table ADD (
    ts AS TO_TIMESTAMP(log_ts) AFTER log_ts,
    WATERMARK FOR ts AS ts - INTERVAL '1' HOUR
);
13.删除watermark
复制代码
ALTER TABLE my_table DROP WATERMARK;
14.修改watermark策略
复制代码
ALTER TABLE my_table MODIFY WATERMARK FOR ts AS ts - INTERVAL '2' HOUR
相关推荐
科技小花19 小时前
全球化深水区,数据治理成为企业出海 “核心竞争力”
大数据·数据库·人工智能·数据治理·数据中台·全球化
weixin_3709763520 小时前
AI的终极赛跑:进入AGI,还是泡沫破灭?
大数据·人工智能·agi
运维全栈笔记1 天前
Linux安装配置Tomcat保姆级教程:从部署到性能调优
linux·服务器·中间件·tomcat·apache·web
一切皆是因缘际会1 天前
AI数字分身的底层原理:破解意识、自我与人格复刻的核心难题
大数据·人工智能·ai·架构
上海光华专利事务所1 天前
跨境电商商标专利管理平台
大数据·产品运营
Elastic 中国社区官方博客1 天前
ES|QL METRICS_INFO 和 TS_INFO:为你的时间序列数据建立目录
大数据·数据库·elasticsearch·搜索引擎·信息可视化·全文检索
jinanwuhuaguo1 天前
(第二十七篇)OpenClaw四月的演化风暴:OpenClaw 2026年4月全版本更新的文明级解读
大数据·人工智能·架构·kotlin·openclaw
清晨0011 天前
工业生产实时数据获取方案-TDengine
大数据·时序数据库·tdengine
极创信息1 天前
信创产品认证怎么做?信创产品测试认证的主要流程
java·大数据·数据库·金融·软件工程
Elastic 中国社区官方博客1 天前
Elastic 和 Cursor 合作 加速 上下文工程 与 coding agents
大数据·人工智能·elasticsearch·搜索引擎·全文检索