HBase完全分布式集群搭建详细教程

11.准备环境

hadoop完全分布式的搭建环境

例如三个节点:hadoop101、hadoop102、hadoop103

2.开启hadoop完全分布式服务

3.将hbase的安装文件上传到 hadoop101服务器/opt 目录下

4.将hbase安装文件解压到/usr/local/software/ 目录下

bash 复制代码
tar -zxvf /opt/hbase-2.5.6-hadoop3-bin.tar.gz -C /usr/local/software/

5.解压后压缩文件的重命名

bash 复制代码
mv hbase-2.5.6-hadoop3/ hbase

6.环境变量的配置

bash 复制代码
vim /etc/profile.d/my_env.sh

添加:
export HBASE_HOME=/usr/local/software/hbase
export PATH=(之前的内容):$HBASE_HOME/bin

7.使环境变量生效

bash 复制代码
source /etc/profile

8.测试hbase是否安装成功

bash 复制代码
hbase version

9.hbase配置文件的修改

9.1hbase-env.sh 配置文件

打开此文件,在文件末尾添加如下内容:

XML 复制代码
#指定jdk目录
export JAVA_HOME=/usr/local/software/jdk
#指定hadoop目录
export HADOOP_HOME=/usr/local/software/hadoop
#配置hbase是否使用内置的zookeeper
#true:使用内置的, false: 不使用
export HBASE_MANAGES_ZK=false
# 最重要的: 禁用对haddop classpath的查找
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"
export HBASE_HEAPSIZE=1G
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP=true

9.2hbase-site.xml 配置文件

XML 复制代码
<!-- mycluster是根据hdfs-site.xml的dfs.nameservices的value进行配置 -->
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://laoma/hbase</value>
</property>
<property>
    <name>hbase.master</name>
    <value>8020</value>
</property>
<!-- zookeeper集群 -->
<property>
    <name>hbase.zookeeper.quorum</name>
    <value>hadoop101:2181,hadoop102:2181,hadoop103:2181</value>
</property>
<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property>
<property>
    <name>hbase.unsafe.stream.capability.enforce</name>
    <value>false</value>
</property>

10.指定RegionServers服务器

在/hbase/conf 目录下,修改 regionservers 文件,并设置如下内容:

bash 复制代码
hadoop101
hadoop102
hadoop103

11.置备份节点

在 /hbase/conf目录下,创建backup-masters,设置需要使用的备份服务器:

例如:hadoop102服务

在 backup-masters 文件中,添加 hadoop102

12.将hbase分发到其它的服务器上

bash 复制代码
scp -r /usr/local/software/hbase root@hadoop102:/usr/local/software
scp -r /usr/local/software/hbase root@hadoop103:/usr/local/software

13.将环境变量进行分发

注意:判断三台服务器中的环境变量是否一样,如果不一样,不要进行分发。则在每一台服务器上单独配置hbase的环境变量:例如:hadoop101上安装过flume、hadoop103上安装过hive,则目前环境变则不同,无法进行分发

13.1 如果可以分发则执行如下命令:

bash 复制代码
scp -r /etc/profile.d/my_env.sh root@hadoop102:/etc/profile.d/
scp -r /etc/profile.d/my_env.sh root@hadoop103:/etc/profile.d/

13.2 如果不能分发,则每一台服务器上执行如下命令

bash 复制代码
vim /etc/profile.d/my_env.sh

添加:
export HBASE_HOME=/usr/local/software/hbase
export PATH=(之前的内容):$HBASE_HOME/bin

14.使hadoop102、hadoop103 服务中的环境变量生效

bash 复制代码
source /etc/profile

15.将 hadoop/etc/hadoop目录下的hdfs-site.xml 文件,复制到 hbase/conf目录下

16.启动hbase

在第一台服务器节点上,启动hbase

bash 复制代码
start-hbase.sh

查看进程

17.测试

访问 http://IP地址:16010 查看是否能访问hbase首页面

相关推荐
qq_1927798719 小时前
高级爬虫技巧:处理JavaScript渲染(Selenium)
jvm·数据库·python
u01092727119 小时前
使用Plotly创建交互式图表
jvm·数据库·python
爱学习的阿磊19 小时前
Python GUI开发:Tkinter入门教程
jvm·数据库·python
tudficdew20 小时前
实战:用Python分析某电商销售数据
jvm·数据库·python
sjjhd65220 小时前
Python日志记录(Logging)最佳实践
jvm·数据库·python
Configure-Handler20 小时前
buildroot System configuration
java·服务器·数据库
2301_8213696121 小时前
用Python生成艺术:分形与算法绘图
jvm·数据库·python
电商API_1800790524721 小时前
第三方淘宝商品详情 API 全维度调用指南:从技术对接到生产落地
java·大数据·前端·数据库·人工智能·网络爬虫
2401_832131951 天前
Python单元测试(unittest)实战指南
jvm·数据库·python
打工的小王1 天前
redis(四)搭建哨兵模式:一主二从三哨兵
数据库·redis·缓存