我们来学zookeeper -- 集群搭建

zk3.9.2版本集群

说明

  • 本文是基于一台服务器搭建zk集群的记录
  • zk集群是主从架构
  • 分别创建三个目录模拟三个节点
  • 只要有半数以上节点存活,zk 集群就能正常服务,适合安装奇数台

下载

解压&创建目录

  • tar -zxvf zookeeper-3.9.2.tar.gz -C 12181/
  • 创建zkdata/zklogs目录

创建myid

  • 配置节点(服务器)编号

  • 在 /zkData 中,创建文件 myid(必须叫 myid,源码读取的文件是 myid)

    复制代码
    echo 1 > /u01/app/zk392/12181/zkdata/myid
    echo 2 > /u01/app/zk392/12182/zkdata/myid
    echo 3 > /u01/app/zk392/12183/zkdata/myid

配置zoo.cfg

server.A=B:C:D 参数

  • A 是一个数字,表示这个是第几号服务器;就是 myid中的值
  • B:是服务器的主机名或 IP 地址
  • C 当集群启动或 leader 崩溃时,各节点通过此端口进行投票选举新leader
  • D 用于 leader 与 follower 之间的数据同步和复制端口

zk1

复制代码
clientPort=12181
admin.serverPort=18081 # admin.serverPort 默认占8080端口
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
server.2=127.0.0.1:12887:13887
server.3=127.0.0.1:12888:13888
server.4=127.0.0.1:12889:13889

zk2

复制代码
clientPort=12182
admin.serverPort=18082 # admin.serverPort 默认占8080端口
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
server.2=127.0.0.1:12887:13887
server.3=127.0.0.1:12888:13888
server.4=127.0.0.1:12889:13889

zk3

复制代码
clientPort=12183
admin.serverPort=18083 # admin.serverPort 默认占8080端口
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
server.2=127.0.0.1:12887:13887
server.3=127.0.0.1:12888:13888
server.4=127.0.0.1:12889:13889

启停

复制代码
/u01/app/zk392/12181/bin/zkServer.sh stop; /u01/app/zk392/12182/bin/zkServer.sh stop;/u01/app/zk392/12183/bin/zkServer.sh stop;
/u01/app/zk392/12181/bin/zkServer.sh start; /u01/app/zk392/12182/bin/zkServer.sh start;/u01/app/zk392/12183/bin/zkServer.sh start;
/u01/app/zk392/12181/bin/zkServer.sh status; /u01/app/zk392/12182/bin/zkServer.sh status;/u01/app/zk392/12183/bin/zkServer.sh status;

从读写步骤看主从

  • zk集群是主从架构
  • 但此主从,能做到从节点转为主的恢复
  • 主节点的写入,也需要得到半数从节点成功写入的反馈

  • 所有写操作必须通过 Leader 处理
  • client向zookeeper的server1发送一个写数据请求
  • server1不是leader,server1把接收到的请求转发给leader
  • leader将写数据请求广播给各个server,如server1和server2,各个server会将写数据请求加入待写队列,并回复leader
  • 当leader收到半数以上server的成功信息,说明该写操作可以执行
  • leader会向各个server发送提交信息
  • 各个server收到信息后会落实队列里的写数据请求,写数据成功
  • server1会进一步通知client写数据成功,这时认为整个写操作成功
相关推荐
ALex_zry17 小时前
Redis Cluster 分布式缓存架构设计与实践
redis·分布式·缓存
为什么不问问神奇的海螺呢丶19 小时前
n9e categraf rabbitmq监控配置
分布式·rabbitmq·ruby
TTBIGDATA1 天前
【Atlas】Atlas Hook 消费 Kafka 报错:GroupAuthorizationException
hadoop·分布式·kafka·ambari·hdp·linq·ranger
m0_687399841 天前
telnet localhost 15672 RabbitMQ “Connection refused“ 错误表示目标主机拒绝了连接请求。
分布式·rabbitmq
陌上丨1 天前
生产环境分布式锁的常见问题和解决方案有哪些?
分布式
新新学长搞科研1 天前
【智慧城市专题IEEE会议】第六届物联网与智慧城市国际学术会议(IoTSC 2026)
人工智能·分布式·科技·物联网·云计算·智慧城市·学术会议
泡泡以安1 天前
Scrapy分布式爬虫调度器架构设计说明
分布式·爬虫·scrapy·调度器
没有bug.的程序员1 天前
RocketMQ 与 Kafka 深度对垒:分布式消息引擎内核、事务金融级实战与高可用演进指南
java·分布式·kafka·rocketmq·分布式消息·引擎内核·事务金融
上海锟联科技1 天前
250MSPS DAS 在地铁监测中够用吗?——来自上海锟联科技的工程实践
分布式·科技·分布式光纤传感·das解调卡·光频域反射·das
岁岁种桃花儿1 天前
深度解析DolphinScheduler核心架构:搭建高可用Zookeeper集群
linux·分布式·zookeeper