HBase完全分布式集群搭建详细教程

11.准备环境

hadoop完全分布式的搭建环境

例如三个节点:hadoop101、hadoop102、hadoop103

2.开启hadoop完全分布式服务

3.将hbase的安装文件上传到 hadoop101服务器/opt 目录下

4.将hbase安装文件解压到/usr/local/software/ 目录下

bash 复制代码
tar -zxvf /opt/hbase-2.5.6-hadoop3-bin.tar.gz -C /usr/local/software/

5.解压后压缩文件的重命名

bash 复制代码
mv hbase-2.5.6-hadoop3/ hbase

6.环境变量的配置

bash 复制代码
vim /etc/profile.d/my_env.sh

添加:
export HBASE_HOME=/usr/local/software/hbase
export PATH=(之前的内容):$HBASE_HOME/bin

7.使环境变量生效

bash 复制代码
source /etc/profile

8.测试hbase是否安装成功

bash 复制代码
hbase version

9.hbase配置文件的修改

9.1hbase-env.sh 配置文件

打开此文件,在文件末尾添加如下内容:

XML 复制代码
#指定jdk目录
export JAVA_HOME=/usr/local/software/jdk
#指定hadoop目录
export HADOOP_HOME=/usr/local/software/hadoop
#配置hbase是否使用内置的zookeeper
#true:使用内置的, false: 不使用
export HBASE_MANAGES_ZK=false
# 最重要的: 禁用对haddop classpath的查找
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"
export HBASE_HEAPSIZE=1G
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP=true

9.2hbase-site.xml 配置文件

XML 复制代码
<!-- mycluster是根据hdfs-site.xml的dfs.nameservices的value进行配置 -->
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://laoma/hbase</value>
</property>
<property>
    <name>hbase.master</name>
    <value>8020</value>
</property>
<!-- zookeeper集群 -->
<property>
    <name>hbase.zookeeper.quorum</name>
    <value>hadoop101:2181,hadoop102:2181,hadoop103:2181</value>
</property>
<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property>
<property>
    <name>hbase.unsafe.stream.capability.enforce</name>
    <value>false</value>
</property>

10.指定RegionServers服务器

在/hbase/conf 目录下,修改 regionservers 文件,并设置如下内容:

bash 复制代码
hadoop101
hadoop102
hadoop103

11.置备份节点

在 /hbase/conf目录下,创建backup-masters,设置需要使用的备份服务器:

例如:hadoop102服务

在 backup-masters 文件中,添加 hadoop102

12.将hbase分发到其它的服务器上

bash 复制代码
scp -r /usr/local/software/hbase root@hadoop102:/usr/local/software
scp -r /usr/local/software/hbase root@hadoop103:/usr/local/software

13.将环境变量进行分发

注意:判断三台服务器中的环境变量是否一样,如果不一样,不要进行分发。则在每一台服务器上单独配置hbase的环境变量:例如:hadoop101上安装过flume、hadoop103上安装过hive,则目前环境变则不同,无法进行分发

13.1 如果可以分发则执行如下命令:

bash 复制代码
scp -r /etc/profile.d/my_env.sh root@hadoop102:/etc/profile.d/
scp -r /etc/profile.d/my_env.sh root@hadoop103:/etc/profile.d/

13.2 如果不能分发,则每一台服务器上执行如下命令

bash 复制代码
vim /etc/profile.d/my_env.sh

添加:
export HBASE_HOME=/usr/local/software/hbase
export PATH=(之前的内容):$HBASE_HOME/bin

14.使hadoop102、hadoop103 服务中的环境变量生效

bash 复制代码
source /etc/profile

15.将 hadoop/etc/hadoop目录下的hdfs-site.xml 文件,复制到 hbase/conf目录下

16.启动hbase

在第一台服务器节点上,启动hbase

bash 复制代码
start-hbase.sh

查看进程

17.测试

访问 http://IP地址:16010 查看是否能访问hbase首页面

相关推荐
youyicc14 分钟前
Qt连接Pg数据库
开发语言·数据库·qt
DO_Community31 分钟前
DigitalOcean容器注册表推出多注册表支持功能
服务器·数据库·docker·kubernetes
一只专注api接口开发的技术猿1 小时前
如何处理淘宝 API 的请求限流与数据缓存策略
java·大数据·开发语言·数据库·spring
_oP_i1 小时前
oracle 免费安装版本
数据库·oracle
Excel工作圈1 小时前
凭证助手一键匹配已勾选抵扣发票与全量发票明细
数据库·excel
齐鲁大虾2 小时前
SQL Server 和 MySQL的区别
数据库·mysql
川石课堂软件测试2 小时前
Android和iOS APP平台测试的区别
android·数据库·ios·oracle·单元测试·测试用例·cocoa
Codeking__2 小时前
Redis的value类型介绍——list
数据库·redis·缓存
香气袭人知骤暖3 小时前
MVCC为什么不能完全解决幻读问题
数据库·oracle
东方巴黎~Sunsiny3 小时前
mysql大表空间整理注意点
数据库·mysql