ClickHouse的副本协同以及分布式DDL实现

ClickHouse的副本协同以及分布式查询是借助zk实现的,首先介绍下zk的目录结构

zk目录结构

zk在系统表中,提供了一张名为zookeeper的代理表,需要指定路径去查询。在定义ReplicatedMergeTree时,定义的zk_path路径一般为 /clickhouse/tables/{shard}/table_name ,这也是查询zk的路径。

csharp 复制代码
select name,value from system.zookeeper where path='/clickhouse/'
┌─name───────┬─value─┐
│ tables     │       │
│ task_queue │       │
└────────────┴───────┘
sql 复制代码
select name,value from system.zookeeper where path='/clickhouse/tables/cdncld_raw_log/01/'
┌─name───────────────────────┬─value──────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┐
│ metadata                   │ metadata format version: 1
date column: 
sampling expression: 
index granularity: 8192
mode: 0
sign column: 
primary key: msec
data format version: 1
partition key: date
ttl: date + toIntervalDay(7), date TO VOLUME 'hot', date + toIntervalHour(12) TO VOLUME 'cold'
granularity bytes: 10485760
 │
│ temp                       │                                                                                                                                                                                                                                                            │
│ mutations                  │                                                                                                                                                                                                                                                            │
│ log                        │                                                                                                                                                                                                                                                            │
│ leader_election            │                                                                                                                                                                                                                                                            │
│ columns                    │ columns format version: 1
82 columns:
`time_iso8601` String
`msec` Float64
`request_id` String
 │
│ blocks                     │                                                                                                                                                                                                                                                            │
│ nonincrement_block_numbers │                                                                                                                                                                                                                                                            │
│ replicas                   │ last added replica: xxx.com                                                                                                                                                                                                        │
│ quorum                     │                                                                                                                                                                                                                                                            │
│ block_numbers              │                                                                                                                                                                                                                                                            │
└────────────────────────────┴────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┘
yaml 复制代码
select name,value from system.zookeeper where path='/clickhouse/tables/cdncld_raw_log/01/replicas/xxx.com/'
┌─name────────────────────────┬─value──────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┐
│ is_lost                     │ 0                                                                                                                                                                                                                                                          │
│ metadata                    │ metadata format version: 1
date column: 
sampling expression: 
index granularity: 8192
mode: 0
sign column: 
primary key: msec
data format version: 1
partition key: date
ttl: date + toIntervalDay(7), date TO VOLUME 'hot', date + toIntervalHour(12) TO VOLUME 'cold'
granularity bytes: 10485760
 │
│ is_active                   │ pid: 12005, random: 8517042718945254648                                                                                                                                                                                                                    │
│ mutation_pointer            │                                                                                                                                                                                                                                                            │
│ columns                     │ columns format version: 1
82 columns:
`time_iso8601` String
`msec` Float64
`request_id` String
 │
│ max_processed_insert_time   │ 1696750235                                                                                                                                                                                                                                                 │
│ flags                       │                                                                                                                                                                                                                                                            │
│ log_pointer                 │ 137394089                                                                                                                                                                                                                                                  │
│ min_unprocessed_insert_time │ 1688372142                                                                                                                                                                                                                                                 │
│ host                        │ host: xxx.com
port: 9009
tcp_port: 9000
database: default
table: cdncld_raw_log
scheme: http
                                                                                                                                             │
│ parts                       │                                                                                                                                                                                                                                                            │
│ queue                       │                                                                                                                                                                                                                                                            │
│ metadata_version            │ 0                                                                                                                                                                                                                                                          │
└─────────────────────────────┴────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┘

目录结构解析参考:blog.csdn.net/weixin_3999...

副本协同流程

副本之间的协同,包括:主副本选举,副本状态感知,操作日志分发,任务队列和BlockID去重判断。

操作日志的目录

  • /log: 常规操作日志节点(INSERT、MERGE和DROP PARTITION),它是整个工作机制中最为重要的一环。保存了副本需要执行的任务指令。log使用了Zookeeper的持久顺序型节点,每条指令的名称以log-为前缀递增,利用log-0000000000、log-0000000001等。每一个副本实例都会监听/log节点,当有新的指令加入时,它们会把指令加入副本各自的任务队列,并执行任务。

  • /mutations: MUTATION操作日志节点,作用与log日志类似,当执行ALTER DELETE和ALTER UPDATE查询时,操作指令会被添加到这个节点。mutations同样使用了Zookeeper的持久顺序型节点,但是它的命名没有前缀,每条指令直接以递增数字的形式保存,例如0000000000、0000000001等。

  • /replicas/{replica_name}/*: 每个副本各自的节点下的一组监听节点,用于指导副本在本地执行具体的任务指令,其中较为重要的节点有如下几个:

    • /queue:任务队列节点,用于执行具体的操作任务。当副本从/log或/mutations节点监听到操作指令时,会将执行任务添加到该节点下,并基于队列执行

    • /log_pointer:log日志指针节点,记录了最后一次执行的log日志下标信息,例如log_pointer:4对应log/log-0000000003

    • mutation_pointer:mutations日志指针节点,记录了最后一次执行的mutations日志名称,例如mutation_pointer:0000000000对应了/mutations/0000000000。

INSERT的核心执行流程

在写入数据时首先完成本地分区的写入:

ruby 复制代码
2023.10.08 16:23:31.460517 [ 2913 ] {} <Trace> system.query_thread_log (3931f3f0-2a3d-4f59-
88bc-fb82d704936f): Renaming temporary part tmp_insert_202310_1838766_1838766_0 to 
202310_1943328_1943328_0.

接着向/blocks节点写入该分区的block_id,这个block_id作为后续去重的判断依据。

分布式DDL

分布式DDL在ck中的存储路径为:/clickhouse/task_queue/ddl,每执行一次分布式查询,就在这个目录下增加一条日志,前缀为query-xxx,序号递增。下面一级目录 /active 存储尚未执行完成此任务的节点host,/finished 存储已经执行完成此任务的节点host。当各个节点监听到有新日志时,就执行操作。

相关推荐
Yz98763 分钟前
Hadoop里面MapReduce的序列化与Java序列化比较
java·大数据·jvm·hadoop·分布式·mapreduce·big data
Fan1 小时前
Elasticsearch 下载安装及使用总结
大数据·elasticsearch·jenkins
lucifer3111 小时前
线程池与最佳实践
java·后端
m0_713344852 小时前
新能源汽车数据大全(产销数据\充电桩\专利等)
大数据·人工智能·新能源汽车
程序员大金2 小时前
基于SSM+Vue+MySQL的酒店管理系统
前端·vue.js·后端·mysql·spring·tomcat·mybatis
程序员大金3 小时前
基于SpringBoot的旅游管理系统
java·vue.js·spring boot·后端·mysql·spring·旅游
goTsHgo3 小时前
从底层原理上解释 ClickHouse 的索引
大数据·clickhouse
Yz98763 小时前
Hadoop-MapReduce的 原理 | 块和片 | Shuffle 过程 | Combiner
大数据·数据库·数据仓库·hadoop·mapreduce·big data
新榜有数3 小时前
品牌建设是什么?怎么做好品牌建设?
大数据·矩阵·数据分析·新媒体运营·流量运营·媒体·内容运营
Pandaconda3 小时前
【计算机网络 - 基础问题】每日 3 题(十)
开发语言·经验分享·笔记·后端·计算机网络·面试·职场和发展