ClickHouse常用DDL

1 创建数据表与Kafka消费

sql 复制代码
-- 数据表
CREATE TABLE IF NOT EXISTS check_in_log ON CLUSTER ${cluster}
(
    id String DEFAULT generateUUIDv4() COMMENT 'ID',
    check_in_time        DateTime DEFAULT now() COMMENT '签到时间',
    user_id              Int64    DEFAULT -1    COMMENT '用户ID',
    user_ip_addr         String   DEFAULT ''    COMMENT '用户IP地址'
) ENGINE = ReplicatedReplacingMergeTree('/clickhouse/tables/{shard}/{database}/{table}', '{replica}')
PARTITION BY toYYYYMM(check_in_time)  -- 按月分区
ORDER BY (check_in_time, id)          -- 唯一键
TTL check_in_time + INTERVAL 1 YEAR   -- 保留1年
COMMENT '签到记录';

-- Kafka引擎表
CREATE TABLE IF NOT EXISTS check_in_log_stream ON CLUSTER ${cluster}
(
    check_in_time        DateTime DEFAULT now() COMMENT '签到时间',
    user_id              Int64    DEFAULT -1    COMMENT '用户ID',
    user_ip_addr         String   DEFAULT ''    COMMENT '用户IP地址'
) ENGINE = Kafka
SETTINGS
    kafka_broker_list = '${kafkaServers}',
    kafka_topic_list = 'check_in_log',
    kafka_group_name = 'check_in_log_ck_consumer',
    kafka_format = 'JSONEachRow',
    kafka_skip_broken_messages = 1
COMMENT '签到记录Kafka消费';
 
-- Kafka消费表
CREATE MATERIALIZED VIEW IF NOT EXISTS check_in_log_view ON CLUSTER ${cluster}
TO check_in_log AS
SELECT generateUUIDv4() as id, * FROM check_in_log_stream;
 
-- 聚合表
CREATE TABLE IF NOT EXISTS check_in_log_all ON CLUSTER ${cluster}
ENGINE = Distributed(${cluster}, currentDatabase(), check_in_log, rand())
COMMENT '通用审计日志聚合表';

2 修改表

sql 复制代码
ALTER TABLE check_in_log ADD COLUMN IF NOT EXISTS user_name String DEFAULT '' COMMENT '用户名';

3 表迁移

步骤1:创建新表

sql 复制代码
CREATE TABLE IF NOT EXISTS check_in_log_new ON CLUSTER ${cluster}
(
    id String DEFAULT generateUUIDv4() COMMENT 'ID',
    check_in_time        DateTime DEFAULT now() COMMENT '签到时间',
    user_id              Int64    DEFAULT -1    COMMENT '用户ID',
    user_ip_addr         String   DEFAULT ''    COMMENT '用户IP地址'
) ENGINE = ReplicatedReplacingMergeTree('/clickhouse/tables/{shard}/{database}/{table}', '{replica}')
ORDER BY (check_in_time, id)          -- 唯一键
TTL check_in_time + INTERVAL 1 YEAR   -- 保留1年
COMMENT '签到记录';

步骤2:迁移历史数据(全量插入)

sql 复制代码
INSERT INTO check_in_log_new 
SELECT * 
FROM check_in_log;
WHERE check_in_time >= '2023-01-01' AND check_in_time < '2024-01-01';  -- 按年分批

步骤3:检查数据完整性

sql 复制代码
SELECT count() FROM check_in_log;            -- 旧表行数
SELECT count() FROM check_in_log_new;        -- 新表行数(应相同)

步骤4:切换新旧表(原子操作)

sql 复制代码
-- 1. 重命名旧表(备份)
RENAME TABLE check_in_log TO check_in_log_old ON CLUSTER ${cluster};

-- 2. 重命名新表为正式表名
RENAME TABLE check_in_log_new TO check_in_log ON CLUSTER ${cluster};

-- 3. 删除旧表
DROP TABLE check_in_log_old ON CLUSTER ${cluster};
相关推荐
TDengine (老段)14 分钟前
中原油田引入时序数据库 TDengine:写入性能提升、存储成本下降 85%
大数据·数据库·人工智能·时序数据库·tdengine·涛思数据
IT邦德18 分钟前
Oracle 26ai搭建ADG Far Sync日志备库
数据库·oracle
Crazy CodeCrafter26 分钟前
现在做服装,实体和电商怎么选?
大数据·数据库·人工智能·微信·开源软件·零售
一江寒逸35 分钟前
零基础从入门到精通MongoDB(下篇):进阶精通篇——吃透高级查询、事务、索引优化与集群架构,成为MongoDB实战高手
数据库·mongodb·架构
sa1002739 分钟前
一键获取淘宝天猫商品评论:API 接口实战与多语言实现教程
数据库·oracle
huanmieyaoseng10031 小时前
Linux安装达梦数据库DM8
linux·运维·数据库
香蕉鼠片1 小时前
Mysql进阶篇
数据库·mysql·oracle
数厘1 小时前
2.12 sql 数据插入(INSERT INTO)
数据库·sql·oracle
薛定e的猫咪1 小时前
2026 年 4 月实测:OpenAI Codex 保姆级教程,从安装到 MCP、Skills 与多智能体协作
前端·数据库·人工智能
wgzrmlrm741 小时前
Django怎么优雅发送邮件_Python配置SMTP后端实现异步通知
jvm·数据库·python