2. zk集群部署

简介

上一篇文章我们已经把环境准备好了,jdk也配置好了,下面我们开始把zk部署起来

hadoop环境准备

创建zk用户

shell 复制代码
useradd zk -d /home/zk
echo "1q1w1e1r"  | passwd --stdin zk

上传zk包

拷贝zk包到/home/zk目录,这里的zk版本为 3.6.3

shell 复制代码
scp zk.tar.gz zk@hadoop01:/home/zk
scp zk.tar.gz zk@hadoop02:/home/zk
scp zk.tar.gz zk@hadoop03:/home/zk

解压

tar -zxvf zk.tar.gz

创建文件夹

mkdir data logs

配置文件

修改zk配置文件

cd /home/zk/conf

vi zoo.cfg

配置如下

text 复制代码
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/home/zk/data
dataLogDir=/home/zk/data
clientPort=2181
server.1=hadoop01:2888:3888
server.2=hadoop02:2888:3888
server.3=hadoop03:2888:3888
skipACL=yes

每台机器创建myid文件,分别写入 1,2,3

cd /home/zk/data

vi myid

启动zk

/home/zk/bin/zkServer.sh start

查看集群状态

shell 复制代码
# hadoop01
[zk@hadoop01 ~]$/home/zk/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /home/zk/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: follower

# hadoop02
[zk@hadoop02 ~]$ /home/zk/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /home/zk/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: leader

# hadoop03
[zk@hadoop03 ~]$ /home/zk/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /home/zk/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: follower

测试

在hadoop01进入客户端交互界面

/home/zk/bin/zkCli.sh -server hadoop01:2181

创建一个文件夹

shell 复制代码
[zk: hadoop01:2181(CONNECTED) 1] create /test
Created /test

进入hadoop02查看

shell 复制代码
/home/zk/bin/zkCli.sh -server hadoop02:2181
[zk: hadoop02:2181(CONNECTED) 0] ls /
[test, zookeeper]

总结

到此zk集群就已经搭建完毕,下节开始搭建hdfs


欢迎关注,学习不迷路!

相关推荐
嘉禾望岗50340 分钟前
Yarn介绍与HA搭建
大数据·hadoop·yarn
IT研究室1 小时前
大数据毕业设计选题推荐-基于大数据的国家药品采集药品数据可视化分析系统-Spark-Hadoop-Bigdata
大数据·hadoop·信息可视化·spark·毕业设计·数据可视化·bigdata
Lx3522 小时前
Hadoop性能瓶颈分析:从JVM到磁盘IO的全链路优化
大数据·hadoop
BYSJMG5 小时前
计算机毕业设计选题:基于Spark+Hadoop的健康饮食营养数据分析系统【源码+文档+调试】
大数据·vue.js·hadoop·分布式·spark·django·课程设计
励志成为糕手6 小时前
Hadoop进程:深入理解分布式计算引擎的核心机制
大数据·hadoop·分布式·mapreduce·yarn
像豆芽一样优秀7 小时前
Hive和Flink数据倾斜问题
大数据·数据仓库·hive·hadoop·flink
计算机毕业设计木哥9 小时前
计算机毕业设计 基于Python+Django的医疗数据分析系统
开发语言·hadoop·后端·python·spark·django·课程设计
howard200519 小时前
VMWare上搭建Hive集群
hive·hadoop
aristo_boyunv19 小时前
拦截器和过滤器(理论+实操)
java·数据仓库·hadoop·servlet
IT研究室1 天前
大数据毕业设计选题推荐-基于大数据的贵州茅台股票数据分析系统-Spark-Hadoop-Bigdata
大数据·hadoop·spark·毕业设计·源码·数据可视化·bigdata