Apache Paimon使用之 Altering Tables

1.改变或增加表属性

设置表属性 write-buffer-size 为256 MB

Flink 引擎

复制代码
ALTER TABLE my_table SET (
    'write-buffer-size' = '256 MB'
);

Spark3引擎

复制代码
ALTER TABLE my_table SET TBLPROPERTIES (
    'write-buffer-size' = '256 MB'
);
2.重命名表

Flink引擎

复制代码
ALTER TABLE my_table RENAME TO my_table_new;

Spark3引擎

最简单的sql调用是

复制代码
ALTER TABLE my_table RENAME TO my_table_new;

可以以这种方式重命名paimon表

复制代码
ALTER TABLE [catalog.[database.]]test1 RENAME to [database.]test2;

不能将Catalog名称放在重命名的表之前,会报错:

复制代码
ALTER TABLE catalog.database.test1 RENAME to catalog.database.test2;

注意:如果使用对象存储,如S3或OSS,请谨慎使用此语法,因为对象存储的重命名不是原子的,如果发生故障,只能移动失败的文件。

3.删除表属性

Flink引擎

复制代码
ALTER TABLE my_table RESET ('write-buffer-size');

Spark3引擎

复制代码
ALTER TABLE my_table UNSET TBLPROPERTIES ('write-buffer-size');
3.添加新列

Flink引擎

复制代码
ALTER TABLE my_table ADD (c1 INT, c2 STRING);

Spark3引擎

复制代码
ALTER TABLE my_table ADD COLUMNS (
    c1 INT,
    c2 STRING
);
4.重命名列名

Flink引擎

复制代码
ALTER TABLE my_table RENAME c0 TO c1;

Spark3引擎

复制代码
ALTER TABLE my_table RENAME COLUMN c0 TO c1;
5.删除列

注意:如果在hive catalog中使用,需要在hive server中禁用hive.metastore.disallow.incompatible.col.type.changes。

Flink引擎

复制代码
ALTER TABLE my_table DROP (c1, c2);

Spark3引擎

复制代码
ALTER TABLE my_table DROP COLUMNS (c1, c2);

6.删除分区

Flink引擎

对于flink sql,可以指定分区列的部分列,也可以同时指定多个分区值。

复制代码
ALTER TABLE MyTable DROP PARTITION (`id` = 1);

ALTER TABLE MyTable DROP PARTITION (`id` = 1, `name` = 'paimon');

ALTER TABLE MyTable DROP PARTITION (`id` = 1), PARTITION (`id` = 2);

Spark3引擎

对于spark sql,需要指定所有分区列。

复制代码
ALTER TABLE MyTable DROP PARTITION (`id` = 1, `name` = 'paimon');
7.更改列是否允许为Null

Flink引擎

复制代码
CREATE TABLE my_table (id INT PRIMARY KEY NOT ENFORCED, coupon_info FLOAT NOT NULL);

-- Change column `coupon_info` from NOT NULL to nullable
ALTER TABLE my_table MODIFY coupon_info FLOAT;

-- Change column `coupon_info` from nullable to NOT NULL
-- If there are NULL values already, set table option as below to drop those records silently before altering table.
SET 'table.exec.sink.not-null-enforcer' = 'DROP';
ALTER TABLE my_table MODIFY coupon_info FLOAT NOT NULL;

Spark3引擎

复制代码
ALTER TABLE my_table ALTER COLUMN coupon_info DROP NOT NULL;

注意:将可Null列更改为NOT NULL目前仅Flink引擎支持。

8.更改列注释

Flink引擎

复制代码
ALTER TABLE my_table MODIFY buy_count BIGINT COMMENT 'buy count';

Spark3引擎

复制代码
ALTER TABLE my_table ALTER COLUMN buy_count COMMENT 'buy count';
9.在指定位置添加列

Flink引擎

复制代码
ALTER TABLE my_table ADD c INT FIRST;

ALTER TABLE my_table ADD c INT AFTER b;

Spark3引擎

复制代码
ALTER TABLE my_table ADD COLUMN c INT FIRST;

ALTER TABLE my_table ADD COLUMN c INT AFTER b;
10.更改现有列的位置

Flink引擎

复制代码
ALTER TABLE my_table MODIFY col_a DOUBLE FIRST;

ALTER TABLE my_table MODIFY col_a DOUBLE AFTER col_b;

Spark3引擎

复制代码
ALTER TABLE my_table ALTER COLUMN col_a FIRST;

ALTER TABLE my_table ALTER COLUMN col_a AFTER col_b;
11.修改列的类型

Flink引擎

复制代码
ALTER TABLE my_table MODIFY col_a DOUBLE;

Spark3引擎

复制代码
ALTER TABLE my_table ALTER COLUMN col_a TYPE DOUBLE;

支持的类型转换

复制代码
https://paimon.apache.org/docs/0.7/how-to/altering-tables/
12.添加watermark

从现有列log_ts添加一个计算列ts,并在列ts上添加一个带有策略ts - INTERVAL '1' HOUR的watermark,该列ts被标记为表my_table的事件时间属性。

复制代码
ALTER TABLE my_table ADD (
    ts AS TO_TIMESTAMP(log_ts) AFTER log_ts,
    WATERMARK FOR ts AS ts - INTERVAL '1' HOUR
);
13.删除watermark
复制代码
ALTER TABLE my_table DROP WATERMARK;
14.修改watermark策略
复制代码
ALTER TABLE my_table MODIFY WATERMARK FOR ts AS ts - INTERVAL '2' HOUR
相关推荐
V搜xhliang024614 分钟前
机器人建模(URDF)与仿真配置
大数据·人工智能·深度学习·机器学习·自然语言处理·机器人
房产中介行业研习社19 分钟前
2026年3月哪些房源管理系统功能全
大数据·运维·人工智能
小邓睡不饱耶1 小时前
Apache Flume 1.12.0 深度实战:从架构内核到企业级高可用部署(附完整代码案例)
架构·apache·flume
玄微云2 小时前
2026年通用软件难适配,垂直店务系统反而更省心
大数据·云计算·软件需求
Elastic 中国社区官方博客2 小时前
Elastic 为什么捐赠其 OpenTelemetry PHP 发行版
大数据·开发语言·elasticsearch·搜索引擎·信息可视化·全文检索·php
方向研究3 小时前
ABS生产
大数据
TDengine (老段)3 小时前
TDengine 视图功能使用
大数据·数据库·servlet·时序数据库·tdengine·涛思数据
TDengine (老段)3 小时前
TDengine IDMP 运维指南 —— 部署架构
大数据·运维·数据库·架构·时序数据库·tdengine·涛思数据
utmhikari4 小时前
【测试人生】变更规则校验Agent研发的一些思路
大数据·人工智能·llm·agent·变更风险·openclaw
AC赳赳老秦4 小时前
DeepSeek优化多智能体指令:避免协同冲突,提升自动化流程稳定性
android·大数据·运维·人工智能·自然语言处理·自动化·deepseek