Hbase2.2.7集群部署

环境说明

  • 准备三台服务器,分别为:bigdata141(作为Hbase主节点)、bigdata142、bigdata143
  • 确保hadoop和zookeeper集群都先启动好
  • 我这边的hadoop版本为3.2.0,zookeeper版本为3.5.8

下载安装包

下载链接:Index of /dist/hbase/2.2.7

下载完后,上传到其中一台服务器,我这边上传到 bigdata141 的 /data/soft/ 目录下

解压并配置

解压

复制代码
[root@bigdata141 soft]# tar -zxvf hbase-2.2.7-bin.tar.gz 
[root@bigdata141 soft]# ll
drwxr-xr-x. 6 root  root        170 Nov 27 20:06 hbase-2.2.7
-rw-r--r--. 1 root  root  220793877 Nov 27 14:31 hbase-2.2.7-bin.tar.gz
[root@bigdata141 soft]# cd hbase-2.2.7/conf

配置

1、首先修改 hbase-env.sh,先复制备份,再修改

复制代码
[root@bigdata141 conf]# cp hbase-env.sh hbase-env.sh.bak
[root@bigdata141 conf]# vi hbase-env.sh

在文件末尾添加以下配置即可:注意 jdk 和 hadoop 的安装目录要换成自己的

复制代码
export JAVA_HOME=/data/soft/jdk1.8
export HADOOP_HOME=/data/soft/hadoop-3.2.0
export HBASE_MANAGES_ZK=false
export HBASE_LOG_DIR=/data/hbase/logs

2、接着修改 hbase-site.xml,先复制备份,再修改:

复制代码
[root@bigdata141 conf]# cp hbase-site.xml hbase-site.xml.bak
[root@bigdata141 conf]# vi hbase-site.xml

以下属性在文件中都能找到,修改属性值即可:

复制代码
<!--是否为分布式模式部署,true表示分布式部署-->
<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property>
<!-- 本地文件系统tmp目录-->
<property>
    <name>hbase.tmp.dir</name>
    <value>/data/hbase/tmp</value>
</property>
<!-- 这个参数的值默认不变即可,默认就是false。在分布式情况下, 一定设置为false -->
<property>
    <name>hbase.unsafe.stream.capability.enforce</name>
    <value>false</value>
</property>

然后再额外添加以下属性即可:注意有些属性值要换成自己的

复制代码
<!--设置HBase表数据,也就是HBase数据在hdfs上的存储根目录-->
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://bigdata141:9000/hbase</value>
</property>
<!--zookeeper集群的URL配置,多个host中间用逗号隔开-->
<property>
    <name>hbase.zookeeper.quorum</name>
    <value>bigdata141,bigdata142,bigdata143</value>
</property>
<!--HBase在zookeeper上数据的根目录znode节点-->
<property>
    <name>zookeeper.znode.parent</name>
    <value>/hbase</value>
</property>
<!--设置zookeeper通信端口,不配置也可以,zookeeper默认就是2181-->
<property>
    <name>hbase.zookeeper.property.clientPort</name>
    <value>2181</value>
</property>

3、最后修改 reginservers 文件:

复制代码
[root@bigdata141 conf]# vi regionservers 

在该文件中添加Hbase从节点的主机名或IP,我这边添加主机名

复制代码
bigdata142
bigdata143

4、将配置好的安装包复制到其他节点:

复制代码
[root@bigdata141 soft]# scp -rq hbase-2.2.7/ bigdata142:/data/soft/
[root@bigdata141 soft]# scp -rq hbase-2.2.7/ bigdata143:/data/soft/

启动Hbase

启动Hbase前,先确认hadoop和zookeeper集群已经启动好,然后再启动Hbase:

复制代码
[root@bigdata141 hbase-2.2.7]# bin/start-hbase.sh 

查看各个节点hbase是否启动:主节点有HMaster进程,从节点有HRegionServer进程,部署完成

复制代码
[root@bigdata141 hbase-2.2.7]# jps -l
1987 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
4195 org.apache.zookeeper.server.quorum.QuorumPeerMain
6198 org.apache.hadoop.hbase.master.HMaster
1706 org.apache.hadoop.hdfs.server.namenode.NameNode
2253 org.apache.hadoop.yarn.server.resourcemanager.ResourceManager
6415 sun.tools.jps.Jps

[root@bigdata142 soft]# jps -l
4800 sun.tools.jps.Jps
4565 org.apache.hadoop.hbase.regionserver.HRegionServer
1544 org.apache.hadoop.hdfs.server.datanode.DataNode
1662 org.apache.hadoop.yarn.server.nodemanager.NodeManager
3071 org.apache.zookeeper.server.quorum.QuorumPeerMain

[root@bigdata143 soft]# jps -l
1537 org.apache.hadoop.hdfs.server.datanode.DataNode
4786 sun.tools.jps.Jps
1655 org.apache.hadoop.yarn.server.nodemanager.NodeManager
3067 org.apache.zookeeper.server.quorum.QuorumPeerMain
4527 org.apache.hadoop.hbase.regionserver.HRegionServer

通过 16010 端口访问web页面

停止Hbase

注意,停止顺序:Hbase--->Zookeeper--->Hadoop,

最好不要先停止zookeeper或者hadoop,

否则会有问题

复制代码
[root@bigdata141 hbase-2.2.7]# bin/stop-hbase.sh 
stopping hbase.................
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/data/soft/hadoop-3.2.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/data/soft/hbase-2.2.7/lib/client-facing-thirdparty/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
相关推荐
weixin_5051544639 分钟前
数字孪生在建设智慧城市中可以起到哪些作用或帮助?
大数据·人工智能·智慧城市·数字孪生·数据可视化
打码人的日常分享41 分钟前
智慧城市建设方案
大数据·架构·智慧城市·制造
阿里云大数据AI技术3 小时前
ES Serverless 8.17王牌发布:向量检索「火力全开」,智能扩缩「秒级响应」!
大数据·运维·serverless
Mikhail_G3 小时前
Python应用变量与数据类型
大数据·运维·开发语言·python·数据分析
G皮T4 小时前
【Elasticsearch】映射:null_value 详解
大数据·elasticsearch·搜索引擎·映射·mappings·null_value
大霸王龙5 小时前
软件工程的软件生命周期通常分为以下主要阶段
大数据·人工智能·旅游
点赋科技5 小时前
沙市区举办资本市场赋能培训会 点赋科技分享智能消费新实践
大数据·人工智能
YSGZJJ6 小时前
股指期货技术分析与短线操作方法介绍
大数据·人工智能
Doker 多克6 小时前
Flink CDC —部署模式
大数据·flink
Guheyunyi6 小时前
监测预警系统重塑隧道安全新范式
大数据·运维·人工智能·科技·安全