zookeeper单机版安装

1、安装jdk(提前安装准备)
复制代码
[root@keep-hadoop ~]# java -version
java version "1.8.0_172"
Java(TM) SE Runtime Environment (build 1.8.0_172-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.172-b11, mixed mode)
2、下载安装包

https://downloads.apache.org/zookeeper/

3、解压安装包到指定目录
复制代码
[root@keep-hadoop ~]# tar -zxvf zookeeper-3.4.10.tar.gz -C /usr/local/src
4、配置环境变量
复制代码
[root@keep-hadoop ~]# vim /etc/profile
export ZOOKEEPER_HOME=/usr/local/src/zookeeper-3.4.10
export PATH=$PATH:$ZOOKEEPER_HOME/bin

[root@keep-hadoop ~]# source /etc/profile
5、配置Zookeeper目录
复制代码
[root@keep-hadoop ~]# cd $ZOOKEEPER_HOME
[root@keep-hadoop zookeeper-3.4.10]# mkdir data
[root@keep-hadoop zookeeper-3.4.10]# mkdir logs
6、创建myid文件
复制代码
[root@keep-hadoop data]# echo 1 > myid
[root@keep-hadoop data]# cat myid
1
7、复制模板配置文件,生成配置文件
复制代码
[root@keep-hadoop zookeeper-3.4.10]# cd conf/
[root@keep-hadoop conf]# cp zoo_sample.cfg zoo.cfg
[root@keep-hadoop conf]# vim zoo.cfg
# 添加内容
dataDir=/usr/local/src/zookeeper-3.4.10/data
dataLogDir=/usr/local/src/zookeeper-3.4.10/logs
server.1=192.168.140.130:2888:3888
8、启动Zookeeper
复制代码
[root@keep-hadoop zookeeper-3.4.10]# cd bin/
[root@keep-hadoop bin]# ./zkServer.sh start
ZooKeeper JMX enabled by default
Using config: /usr/local/src/zookeeper-3.4.10/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
[root@keep-hadoop bin]# ./zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/src/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: standalone
9、使用java的jps检测进程
复制代码
# jps看到QuorumPeerMain进程就已经启动成功了
[root@keep-hadoop bin]# jps
13874 QuorumPeerMain
14073 Jps
10、停止Zookeeper
复制代码
[root@keep-hadoop bin]# ./zkServer.sh stop
ZooKeeper JMX enabled by default
Using config: /usr/local/src/zookeeper-3.4.10/bin/../conf/zoo.cfg
Stopping zookeeper ... STOPPED
[root@keep-hadoop bin]# jps
14444 Jps
相关推荐
字节跳动数据平台1 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
甲鱼9291 天前
MySQL 实战手记:日志管理与主从复制搭建全指南
运维
武子康1 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
初次攀爬者2 天前
Kafka + ZooKeeper架构基础介绍
后端·zookeeper·kafka
字节跳动数据平台2 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术2 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康2 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康3 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
碳基沙盒3 天前
OpenClaw 多 Agent 配置实战指南
运维
大大大大晴天3 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink