Hbase集群搭建

目录

一、引言

二、简介

三、下载&解压安装包

四、hbase配置&验证

五、启动并验证Hbase集群


官网:Apache HBase -- Apache HBase Downloads

一、引言

适用人群:了解Hbasede程序猿.

文章目的:给部署Hbase的开发者,提供参考。

二、简介

HBase -- Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。

三、下载&解压安装包

集群使用三台服务器分别为A、B、C,一般单台把公用配置完成后,传输到其他机器,可简化步骤。下面在A服务器上面上操作。

进入官网或相关网址下载Hbase安装包,http://www-us.apache.org/dist/hbase/1.2.4/,下载后解压缩到A服务器文件夹/opt/tpapp/。

四、hbase配置&验证

  1. 创建用户,因为Hbase依赖于Hadoop以及Zookeeper所以在安装好Hadoop环境后,使用hadoop用户即可(参见hadoop集群安装文档),以及下面第2条的hosts文件配置也可以是一样的。

  2. 首先需要在hosts文件中配置部署服务器对应域名(如果Hbase部署的机器和Hadoop相同可以不用配置,直接使用hadoop配置的域名即可),以A、B、C三台机器为例;在hosts文件中添加以下内容:

    复制代码
    10.100.40.12    master
    10.100.40.13    node1
    10.100.40.14    node2
  3. 修改hbase-env.sh文件,修改其中的java 地址:

    复制代码
    # export JAVA_HOME=/usr/java/jdk1.6.0/
    export JAVA_HOME=/opt/tpapp/jdk1.7.0_25
  4. 修改hbase-site.xml文件,在文件中添加以下信息(因为hbase依赖于hadoop和zookeeper,配置中的rootdir和zookeeper配置需要对应已经装好的服务器位置):

    XML 复制代码
    <configuration>
        <property>
            <name>hbase.rootdir</name>
            <value>hdfs://master:9000/hbase</value>
        </property>
        <property>
              <name>hbase.zookeeper.property.clientPort</name>
                    <value>9527</value>
                      </property>
        <property>
            <name>hbase.zoopkeeper.property.dataDir</name>
            <value>/opt/tpapp/zookeeper</value>
        </property>
        <property>
            <name>hbase.cluster.distributed</name>
            <value>true</value>
        </property>
        <property>
            <name>hbase.zookeeper.quorum</name>
            <value>master,node1,node2</value>
        </property>
    </configuration>
  5. 修改regionservers的内容为(regionserver 指的是是文件存储服务器):

    复制代码
    node1
    node2
  6. 配置备份master(实现高可用,防止在master宕机情况下,node1能够及时接管master的工作,维持集群的运作),在/opt/tpapp/hbase/conf 文件夹下面创建backup-master文件并写入以下内容:

    复制代码
    node1
  7. 传输配置好的文件夹/opt/tpapp/hbase 至B、C服务器。

    复制代码
    scp -r /opt/tpapp/hbase hadoop@node1:/opt/tpapp/
    scp -r /opt/tpapp/hbase hadoop@node1:/opt/tpapp/
  8. 修改文件夹所属关系

    复制代码
    chown -R hadoop:hadoop /opt/tpapp/hbase
  9. 配置各服务器的Hbase环境变量并使之生效,进入/etc/profile添加以下内容:

    复制代码
    export HBASE_HOME=/opt/tpapp/habse 
    export PATH=$PATH:$HBASE_HOME/bin 
    
    修改完成后使用source /etc/profile 使其生效

五、启动并验证Hbase集群

  1. 启动Hbase前,需要先启动Hadoop集群、Zookeeper集群,最后启动Hbase集群(请使用之前设置的Hadoop账户,只需要在Hbase集群的master节点启动即可启动其他机器),命令:

    复制代码
    启动:   /opt/tpapp/hbase/bin/start-hbase.sh
    停止:   /opt/tpapp/hbase/bin/stop-hbase.sh
  2. 验证启动成功,在终端输入jps观察如果有红框内的内容即启动成功:
    master

    node1、node2

  3. 验证集群功能可通过创建表,插入数据,查数据验证,语法请自行百度。

相关推荐
张璐月2 小时前
mysql join语句、全表扫描 执行优化与访问冷数据对内存命中率的影响
数据库·mysql
小牛头#4 小时前
clickhouse 各个引擎适用的场景
大数据·clickhouse·机器学习
全干engineer4 小时前
ClickHouse 入门详解:它到底是什么、优缺点、和主流数据库对比、适合哪些场景?
数据库·clickhouse
Hellyc6 小时前
基于模板设计模式开发优惠券推送功能以及对过期优惠卷进行定时清理
java·数据库·设计模式·rocketmq
lifallen6 小时前
Paimon LSM Tree Compaction 策略
java·大数据·数据结构·数据库·算法·lsm-tree
元宇宙时间6 小时前
全球发展币GDEV:从中国出发,走向全球的数字发展合作蓝图
大数据·人工智能·去中心化·区块链
张先shen8 小时前
Elasticsearch RESTful API入门:基础搜索与查询DSL
大数据·spring boot·elasticsearch·搜索引擎·全文检索·restful
{⌐■_■}10 小时前
【Kafka】登录日志处理的三次阶梯式优化实践:从同步写入到Kafka多分区批处理
数据库·分布式·mysql·kafka·go
isNotNullX10 小时前
数据中台架构解析:湖仓一体的实战设计
java·大数据·数据库·架构·spark