clickhouse - 重新建表覆盖旧表-解决分区时间错误问题-197001

由于上传时间戳为毫秒级,建表sql的分区按照 PARTITION BY toYYYYMM(toDate(ts)) 秒级划分,导致所有的数据计算后超出范围全部标注在了 1970-01的分区上面。

  1. 尝试修改表的配置分区无效。
  2. 创建新表更新分区的配置 PARTITION BY toYYYYMM(toDate(ts/1000)) ,抽取数据到新表。再依次验证后还原表名字。

验证函数中的数据,toDate转换的情况

sql 复制代码
SELECT toYYYYMM(toDate(ts / 1000)) FROM ts_kv_cluster 

Query id: efa8f8b1-cb92-4344-b39e-bf18f3c00ff1

┌─toYYYYMM(toDate(divide(ts, 1000)))─┐
│                             202504 │
│                             202504 │
│                             202504 │
│                             202504 │




SELECT toYYYYMM(toDate(ts)) FROM ts_kv_cluster 

Query id: 92620905-0add-4c91-8b3a-2065fe67d7b3

┌─toYYYYMM(toDate(ts))─┐
│               197001 │
│               197001 │
│               197001 │

解决分区的时间错误

sql 复制代码
# 创建新表
 CREATE TABLE iot.ts_kv_cluster_new
(
    `entity_id` String,
    `key` Int32,
    `ts` Int64,
    `bool_v` Nullable(UInt8),
    `str_v` Nullable(String),
    `long_v` Nullable(Int64),
    `dbl_v` Nullable(Float64),
    `json_v` Nullable(String)
)
ENGINE = ReplicatedMergeTree('/clickhouse/table/{shard}/ts_kv_cluster_new', '{replica}')
PARTITION BY toYYYYMM(toDate(ts / 1000))
PRIMARY KEY (entity_id, key, ts)
ORDER BY (entity_id, key, ts)
SETTINGS index_granularity = 8192;



# 复制数据到新表中
INSERT INTO iot.ts_kv_cluster_new SELECT * FROM iot.ts_kv_cluster;

# 对比数量
SELECT COUNT(*) FROM iot.ts_kv_cluster;
SELECT COUNT(*) FROM iot.ts_kv_cluster_old;

# 重命名 原有的表名  到 旧表
RENAME TABLE iot.ts_kv_cluster TO iot.ts_kv_cluster_old;

# 重命名 新表 到原有的表名
RENAME TABLE iot.ts_kv_cluster_new TO iot.ts_kv_cluster;

# 查看分区的分布
SELECT partition, count() FROM system.parts WHERE table = 'ts_kv_cluster' GROUP BY partition;


# 删除 旧表
DROP TABLE iot.ts_kv_cluster_old;
相关推荐
4t4run8 天前
1、clickhouse 安装
数据库·clickhouse
JackSparrow4149 天前
使用Elasticsearch代替数据库like以加快查询的各种技术方案+实现细节
大数据·clickhouse·elk·elasticsearch·搜索引擎·postgresql·全文检索
梦想与想象-广州大智汇16 天前
MySQL 同步数据到 ClickHouse 方案对比分析
数据库·mysql·clickhouse
Smile_25422041817 天前
clickhouse日志疯涨问题
linux·运维·服务器·clickhouse
计算机魔术师17 天前
【技术硬核 | 存储】ClickHouse 原理与 Langfuse 存储实践:当 LLM Trace 爆炸时,PG 还扛得住吗?
人工智能·clickhouse·工程实践·sbti·职场焦虑
fire-flyer20 天前
ClickHouse系列(九):慢查询、内存 OOM 与稳定性治理
android·clickhouse
fire-flyer20 天前
ClickHouse系列(十):生产架构与最佳实践总结
clickhouse·架构
fire-flyer20 天前
ClickHouse系列(八):ClickHouse 的 UPDATE / DELETE 正确姿势
大数据·数据库·clickhouse
fire-flyer20 天前
ClickHouse系列(七):Materialized View 与多分辨率 Rollup 设计
大数据·数据库·clickhouse·架构
fire-flyer22 天前
ClickHouse系列(二):MergeTree 家族详解
大数据·数据库·clickhouse