ZooKeeper节点扩容

  • 新节点的准备工作(这里由hadoop05节点,IP地址为192.168.46.131充当)
    • 配置新节点的主机域名映射,并将其通告给集群中的其他节点
    • 配置主机间免密登录
    • 关闭防火墙并将其加入到开机不启动项
    • 同步hadoop01节点的时间
  • 将所需要的文件分发给新节点
    • 将java的安装目录分发给新节点
    • 将zookeeper的安装目录分发给新节点
    • 将profile的环境变量文件分发给新节点
  • 配置新节点的myid信息,注意不要和备胎的myid冲突
  • 修改其中一个节点的zoo.cfg配置文件,将新节点信息加入后同步给集群中的其他节点
  • 重启所有节点的zookeeper服务

1、准备一个干净的新节点****(这里用hadoop05节点代替,步骤可参考****

[root@hadoop05 ~]# ip add

输出结果,如下图所示:

2、将jdk安装目录传送给hadoop05(也可以直接用传输工具传入)

[root@hadoop01 ~]# cd /opt/install/

[root@hadoop01 install]# scp -r java/ hadoop05:/opt/install/

输出结果,如下图所示:

3、将ZooKeeper的安装目录传送给hadoop04

[root@hadoop01 install]# scp -r zookeeper/ hadoop05:/opt/install/

输出结果,如下图所示:

4、将配置好的环境变量传送给hadoop04

[root@hadoop01 install]# scp /etc/profile hadoop04:/etc/

5、修改hadoop05的myid文件

[root@hadoop05 install]# echo 5 > /tmp/zookeeper/myid

6、所有节点(hadoop01-hadoop04)修改zoo.cfg,将该节点的信息加入其中

[root@hadoop05 install]# vim zookeeper/conf/zoo.cfg

server.4=hadoop04:2888:3888

输出结果,如下图所示:

7、所有节点重启zookeeper的集群服务

[root@hadoop01]# zkServer.sh restart

[root@hadoop01]# zkServer.sh status

各个节点输出结果,如下图所示:

1)hadoop01节点:

2)hadoop02节点:

3)hadoop03节点:

4)hadoop04节点,hadoop04节点由于是新增的节点,所以需要刷新一下环境变量,再启动服务即可。

相关推荐
浪小满2 分钟前
linux下使用脚本实现对进程的内存占用自动化监测
linux·运维·自动化·内存占用情况监测
东软吴彦祖16 分钟前
包安装利用 LNMP 实现 phpMyAdmin 的负载均衡并利用Redis实现会话保持nginx
linux·redis·mysql·nginx·缓存·负载均衡
想做富婆18 分钟前
大数据,Hadoop,HDFS的简单介绍
大数据·hadoop·分布式
艾杰Hydra41 分钟前
LInux配置PXE 服务器
linux·运维·服务器
霍格沃兹测试开发学社测试人社区1 小时前
软件测试丨消息管道(Kafka)测试体系
软件测试·分布式·测试开发·kafka
慵懒的猫mi1 小时前
deepin分享-Linux & Windows 双系统时间不一致解决方案
linux·运维·windows·mysql·deepin
阿无@_@1 小时前
2、ceph的安装——方式二ceph-deploy
linux·ceph·centos
PyAIGCMaster2 小时前
ollama部署及实践记录,虚拟环境,pycharm等
linux·ide·pycharm
ouliten2 小时前
最新版pycharm如何配置conda环境
linux·pycharm·conda