clickhouse - 重新建表覆盖旧表-解决分区时间错误问题-197001

由于上传时间戳为毫秒级,建表sql的分区按照 PARTITION BY toYYYYMM(toDate(ts)) 秒级划分,导致所有的数据计算后超出范围全部标注在了 1970-01的分区上面。

  1. 尝试修改表的配置分区无效。
  2. 创建新表更新分区的配置 PARTITION BY toYYYYMM(toDate(ts/1000)) ,抽取数据到新表。再依次验证后还原表名字。

验证函数中的数据,toDate转换的情况

sql 复制代码
SELECT toYYYYMM(toDate(ts / 1000)) FROM ts_kv_cluster 

Query id: efa8f8b1-cb92-4344-b39e-bf18f3c00ff1

┌─toYYYYMM(toDate(divide(ts, 1000)))─┐
│                             202504 │
│                             202504 │
│                             202504 │
│                             202504 │




SELECT toYYYYMM(toDate(ts)) FROM ts_kv_cluster 

Query id: 92620905-0add-4c91-8b3a-2065fe67d7b3

┌─toYYYYMM(toDate(ts))─┐
│               197001 │
│               197001 │
│               197001 │

解决分区的时间错误

sql 复制代码
# 创建新表
 CREATE TABLE iot.ts_kv_cluster_new
(
    `entity_id` String,
    `key` Int32,
    `ts` Int64,
    `bool_v` Nullable(UInt8),
    `str_v` Nullable(String),
    `long_v` Nullable(Int64),
    `dbl_v` Nullable(Float64),
    `json_v` Nullable(String)
)
ENGINE = ReplicatedMergeTree('/clickhouse/table/{shard}/ts_kv_cluster_new', '{replica}')
PARTITION BY toYYYYMM(toDate(ts / 1000))
PRIMARY KEY (entity_id, key, ts)
ORDER BY (entity_id, key, ts)
SETTINGS index_granularity = 8192;



# 复制数据到新表中
INSERT INTO iot.ts_kv_cluster_new SELECT * FROM iot.ts_kv_cluster;

# 对比数量
SELECT COUNT(*) FROM iot.ts_kv_cluster;
SELECT COUNT(*) FROM iot.ts_kv_cluster_old;

# 重命名 原有的表名  到 旧表
RENAME TABLE iot.ts_kv_cluster TO iot.ts_kv_cluster_old;

# 重命名 新表 到原有的表名
RENAME TABLE iot.ts_kv_cluster_new TO iot.ts_kv_cluster;

# 查看分区的分布
SELECT partition, count() FROM system.parts WHERE table = 'ts_kv_cluster' GROUP BY partition;


# 删除 旧表
DROP TABLE iot.ts_kv_cluster_old;
相关推荐
l1t4 天前
DeepSeek总结的用Parquet从 ClickHouse 迁移至 CedarDB查询
clickhouse·cedardb
longxibo15 天前
【Ubuntu datasophon1.2.1 二开之六:解决CLICKHOUSE安装问题】
大数据·linux·clickhouse·ubuntu
l1t16 天前
在python 3.14 容器中安装和使用chdb包
开发语言·python·clickhouse·chdb
linweidong18 天前
别让老板等:千人并发下的实时大屏极致性能优化实录
jmeter·clickhouse·性能优化·sentinel·doris·物化视图·离线数仓
Paraverse_徐志斌18 天前
基于 Kafka + Flink + ClickHouse 电商用户行为实时数仓实践
大数据·clickhouse·flink·kafka·olap·etl
李兆龙的博客19 天前
从一到无穷大 #62 ClickHouse 加速机制持久化格式拆解
clickhouse
麦兜和小可的舅舅24 天前
ClickHouse 一次Schema修改造成的Merge阻塞问题的分析和解决过程
clickhouse
bigdata-rookie1 个月前
StarRocks(2.5.1)vs Clickhouse(21.7.3.14)集群 SSB 性能测试
clickhouse
CTO Plus技术服务中1 个月前
ClickHouse原理解析与应用实践教程
clickhouse