Hbase集群搭建

1. 环境

  1. 三台节点
  2. hadoop 集群
  3. zookeeper 集群
  4. hbase

1.1环境准备

使用前文hdfs三台节点

1.11 zookeeper搭建

下载

bash 复制代码
wget https://dlcdn.apache.org/zookeeper/zookeeper-3.8.4/apache-zookeeper-3.8.4-bin.tar.gz

解压

bash 复制代码
tar -zxvf apache-zookeeper-3.8.4-bin.tar.gz  zookeeper

修改配置

bash 复制代码
vi conf/zoo.cfg
bash 复制代码
##Client-Server通信心跳时间,单位是毫秒
tickTime=2000
##集群中的follower服务器(F)与leader服务器(L)之间初始连接时能容忍的最多心跳数
initLimit=10
##集群中的follower服务器与leader服务器之间请求和应答之间能容忍的最多心跳数
syncLimit=5    
## 监听端口
clientPort=2181
## 最大连接数
maxClientCnxns=100
## 数据目录
dataDir=/root/zookeeper/data
## 日志目录
dataLogDir=/root/zookeeper/data/log
## zk节点1
server.1=192.168.10.16:2888:3888
## zk节点2
server.2=192.168.10.17:2888:3888
## zk节点3
server.3=192.168.10.18:2888:3888

启动/停止 zookeeper

bash 复制代码
./bin/zkServer.sh start||stop

三台服务器同时配置启动即可

zookeeper同样可使用在hdfs的ha部署中,前文hdfs集群非ha模式

2 hbase搭建

hbase对应版本

官网链接
hbase官网说明

我使用的是2.5.10

hbase下载

下载地址(慢的话挂梯子)

bash 复制代码
https://dlcdn.apache.org/hbase/

解压

bash 复制代码
tar -zxvf hbase-2.5.10-bin.tar.gz && mv hbase-2.5.10 hbase 

修改环境变量

bash 复制代码
vi /etc/profile

添加

bash 复制代码
export HBASE_HOME=/root/hbase
export PATH=$HBASE_HOME/bin:$PATH
bash 复制代码
source /etc/profile

修改 conf/hbase-env.sh

bash 复制代码
# 关闭hbase自管理zookeeper
export HBASE_MANAGES_ZK=false

修改 conf/hbase-site.xml

bash 复制代码
<property>
        <name>hbase.master</name>
        <value>node1</value>
</property>
<property>
	<name>hbase.wal.provider</name>
	<value>filesystem</value>
</property>
<property>
	<name>hbase.cluster.distributed</name>
	<value>true</value>
</property>
<property>
	<name>hbase.zookeeper.quorum</name>
	<value>node1,node2,node3</value>
	<description>The directory shared by RegionServers</description>
</property>

<property>
	<name>hbase.rootdir</name>
	<value>hdfs://node1:8020/hbase</value>
	<description>The directory shared by RegionServers.</description>
</property>

修改hdfs与hbase冲突的日志jar

bash 复制代码
mv lib/client-facing-thirdparty/slf4j-api-1.7.33.jar lib/client-facing-thirdparty/slf4j-api-1.7.33.jar.bak

配置备用master

bash 复制代码
vi conf/backup-master
bash 复制代码
node2

三台服务器均配置完成后

单台启动hbase

主节点node1 备用master node2

bash 复制代码
./bin/hbase-daemon.sh start master

启动regionserver

bash 复制代码
./bin/hbase-daemon.sh start regionserver

其他节点

bash 复制代码
./bin/hbase-daemon.sh start regionserver

或者一键启动||关闭所有节点hbase,需要配置服务器免密登录

修改regionservers(一建启动)

bash 复制代码
node1
node2
node3
bash 复制代码
start-hbase.sh||stop-hbase.sh

ui地址

bash 复制代码
http://node1:16010/master-status
相关推荐
NineData2 小时前
NineData 迁移评估功能正式上线
数据库·dba
NineData8 小时前
数据库迁移总踩坑?用 NineData 迁移评估,提前识别所有兼容性风险
数据库·程序员·云计算
赵渝强老师10 小时前
【赵渝强老师】PostgreSQL中表的碎片
数据库·postgresql
字节跳动数据平台14 小时前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
全栈老石14 小时前
拆解低代码引擎核心:元数据驱动的"万能表"架构
数据库·低代码
得物技术15 小时前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
大大大大晴天16 小时前
Flink生产问题排障-HBase NotServingRegionException
flink·hbase
武子康16 小时前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
倔强的石头_1 天前
kingbase备份与恢复实战(二)—— sys_dump库级逻辑备份与恢复(Windows详细步骤)
数据库
武子康2 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive