Zookeeper选举Leader源码剖析

Zookeeper选举Leader源码剖析

leader选举流程

  • 参数说明
    • myid: 节点的唯一标识,手动设置
    • zxid: 当前节点中最大(新)的事务id
    • epoch-logic-clock: 同一轮投票过程中的逻辑时钟值相同,每投完一次值会增加
  • leader选举流程
    • 默认投票给自己,优先选择zxid大的为leader,因为zxid大的节点数据是最新的(理论上事务id越大,说明数据量越多也就意味着比较新),如果zxid一致,那么会选择myid大的为leader,当节点选票过半则选举成功

leader选举核心步骤

  • 源码大致流程

    • 初始化netty通信,客户端发送命令立刻监听到

    • 初始化内存数据库对象、初始化服务连接工厂等一些信息

      • 启动服务节点
        • 加载文件数据到内存
        • 启动netty服务
        • 初始化集群选举leader
        • 启动一个线程进行选举监听
        • 监听到选票,将选票丢到recvQueue队列中
    • 启动接收选票线程、发送选票线程进行监听,都去队列中接受和发送选票

    • 启动QuorumPeer线程执行run方法,根据节点状态判断

      • leading: socket监听follower节点,初始化LeaerZookeeperServer数据,同步数据到从节点,定时ping到follower节点请求保持长连接
        • follower: 与leader建立发送socket连接,注册自己到leader、同步leader数据、自旋接收leader同步数据,如果leader宕了,在finally中将自己的状态改为looking,进入下一轮自旋选举
        • looking: 节点启动后的默认状态,选举周期+1,初始化选票,默认选自己,发送选票到sendQueue队列,同时还会不断地从recvQueue队列拿选票进行选举
  • 问题: ZK的选举机制为什么存在大量自旋,如同步节点数据、选举流程,如果长时间运行会不会导致CPU资源损耗过大

    • 对于长时间自旋毋庸置疑肯定会导致CPU资源紧张,但是想达到动态监听数据变化就得牺牲一定的CPU性能,并且这样也能保证数据的强一致性,也能保证节点选举的实时性
    • 倘若想要优化ZK,可以引入Redis/MQ基于发布/订阅模式进行处理,但是这样会造成引入三方中间件导致复杂度提升
相关推荐
码农小灰14 小时前
Kafka消息持久化机制全解析:存储原理与实战场景
java·分布式·kafka
纪莫21 小时前
Kafka如何保证「消息不丢失」,「顺序传输」,「不重复消费」,以及为什么会发生重平衡(reblanace)
java·分布式·后端·中间件·kafka·队列
想躺平的咸鱼干21 小时前
RabbitMQ 基础
java·分布式·rabbitmq·idea·amqp·消息转换器·交换机模型
KaiwuDB1 天前
KWDB 分布式架构探究——数据分布与特性
数据库·分布式
华仔啊1 天前
乐观锁、悲观锁和分布式锁,你用对了吗?
java·分布式
艾希逐月2 天前
分布式唯一 ID 生成方案
分布式
大囚长2 天前
配置管理和服务发现——consul和zookeeper怎么选
zookeeper·服务发现·consul
齐木卡卡西在敲代码2 天前
kafka的pull的依据
分布式·kafka
lllsure2 天前
RabbitMQ 基础
分布式·rabbitmq
DN金猿2 天前
rabbitmq发送的延迟消息时间过长就立即消费了
分布式·rabbitmq