大数据NoSQL数据库HBase集群部署

目录

[1. 简介](#1. 简介)

[2. 安装](#2. 安装)

[1. HBase依赖Zookeeper、JDK、Hadoop(HDFS),请确保已经完成前面](#1. HBase依赖Zookeeper、JDK、Hadoop(HDFS),请确保已经完成前面)

[2. 【node1执行】下载HBase安装包](#2. 【node1执行】下载HBase安装包)

[3. 【node1执行】,修改配置文件,修改conf/hbase-env.sh文件](#3. 【node1执行】,修改配置文件,修改conf/hbase-env.sh文件)

[4. 【node1执行】,修改配置文件,修改conf/hbase-site.xml文件](#4. 【node1执行】,修改配置文件,修改conf/hbase-site.xml文件)

[5. 【node1执行】,修改配置文件,修改conf/regionservers文件](#5. 【node1执行】,修改配置文件,修改conf/regionservers文件)

[6. 【node1执行】,分发hbase到其它机器](#6. 【node1执行】,分发hbase到其它机器)

[7. 【node2、node3执行】,配置软链接](#7. 【node2、node3执行】,配置软链接)

[8. 【node1、node2、node3执行】,配置环境变量](#8. 【node1、node2、node3执行】,配置环境变量)

[9. 【node1执行】启动HBase](#9. 【node1执行】启动HBase)

[10. 验证HBase](#10. 验证HBase)

[11. 简单测试使用HBase](#11. 简单测试使用HBase)


1. 简介

HBase 是一种 分布式 、可扩展、支持海量数据存储的 NoSQL 数据库。
和 Redis 一样, HBase 是一款 KeyValue 型存储的数据库。
不过和 Redis 设计方向不同
Redis 设计为少量数据,超快检索
HBase 设计为海量数据,快速检索
HBase 在大数据领域应用十分广泛,现在我们来在 node1 、 node2 、 node3 上部署HBase集群。

2. 安装

1. HBase依赖Zookeeper、JDK、Hadoop(HDFS),请确保已经完成前面

1)集群化软件前置准备( JDK)
2) Zookeeper
3) Hadoop
跳转链接:
集群化环境前置准备_时光の尘的博客-CSDN博客
Zookeeper集群安装部署、Kafka集群安装部署_时光の尘的博客-CSDN博客
大数据集群(Hadoop生态)安装部署_时光の尘的博客-CSDN博客

2. 【node1执行】下载HBase安装包

复制代码
# 下载
wget
http://archive.apache.org/dist/hbase/2.1.0/hbase-2.1.0-bin.tar.gz

# 解压
tar -zxvf hbase-2.1.0-bin.tar.gz -C /export/server

# 配置软链接
ln -s /export/server/hbase-2.1.0 /export/server/hbase

3. 【node1执行】,修改配置文件,修改conf/hbase-env.sh文件

复制代码
# 在28行配置JAVA_HOME
export JAVA_HOME=/export/server/jdk
# 在126行配置:
# 意思表示,不使用HBase自带的Zookeeper,而是用独立
Zookeeper
export HBASE_MANAGES_ZK=false
# 在任意行,比如26行,添加如下内容:
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"

4. 【node1执行】,修改配置文件,修改conf/hbase-site.xml文件

复制代码
1 # 将文件的全部内容替换成如下内容:
2 <configuration>
3 - HBase数据在HDFS中的存放的路径 - >
4 <property>
5 <name>hbase.rootdir / name>
6 <value>hdfs: / node1:8020/hbase / value>
7 / property>
8 - Hbase的运行模式。false是单机模式,true是分
布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面
>
9 <property>
10 <name>hbase.cluster.distributed / name>
11 <value>true / value>
12 / property>
13 - ZooKeeper的地址 - >
14 <property>
15 <name>hbase.zookeeper.quorum / name>
16 <value>node1,node2,node3 / value>
17 / property>
18 - ZooKeeper快照的存储位置 - >
19 <property>
20
<name>hbase.zookeeper.property.dataDir / name>
21 <value>/export/server/apache-zookeeper-
3.6.0-bin/data / value>
22 / property>
23 - V2.1版本,在分布式情况下, 设置为false - >
24 <property>
25
<name>hbase.unsafe.stream.capability.enforce / name>
26 <value>false / value>
27 / property>
28 / configuration>

部分格式转换时出现错误,图片演示:


5. 【node1执行】,修改配置文件,修改conf/regionservers文件

复制代码
# 填入如下内容
node1
node2
node3

6. 【node1执行】,分发hbase到其它机器

复制代码
scp -r /export/server/hbase-2.1.0
node2:/export/server/
scp -r /export/server/hbase-2.1.0
node3:/export/server/

7. 【node2、node3执行】,配置软链接

复制代码
ln -s /export/server/hbase-2.1.0 /export/server/hbase

8. 【node1、node2、node3执行】,配置环境变量

复制代码
# 配置在/etc/profile内,追加如下两行
export HBASE_HOME=/export/server/hbase
export PATH=$HBASE_HOME/bin:$PATH

source /etc/profile

9. 【node1执行】启动HBase

请确保: Hadoop HDFS 、 Zookeeper 是已经启动了的

复制代码
start-hbase.sh

# 如需停止可使用
stop-hbase.sh

由于我们配置了环境变量 export PATH=PATH:HBASE_HOME/bin start-hbase.sh即在 $HBASE_HOME/bin 内,所以可以无论当前目录在哪,均可直接执行

10. 验证HBase

浏览器打开: http: //node1:16010 ,即可看到 HBase 的 WEB UI 页面

11. 简单测试使用HBase

【 node1 执行】

复制代码
hbase shell

# 创建表
create 'test', 'cf'

# 插入数据
put 'test', 'rk001', 'cf:info', 'itheima'

# 查询数据
get 'test', 'rk001'

# 扫描表数据
scan 'test'
相关推荐
小许好楠5 分钟前
java开发工程师-学习方式
java·开发语言·学习
阿里云大数据AI技术8 分钟前
1TB数据,ES却收到了2TB?揪出那个客户端中的“隐形复读机”
大数据·elasticsearch
Halo_tjn22 分钟前
基于 IO 流实现文件操作的专项实验
java·开发语言
姓蔡小朋友27 分钟前
MySQL事务、InnoDB存储引擎
java·数据库·mysql
业精于勤的牙31 分钟前
最长特殊序列(二)
java·开发语言·算法
初恋叫萱萱32 分钟前
【TextIn大模型加速器 + 火山引擎】文件智能体构建全路径指南
大数据·数据库·火山引擎
回家路上绕了弯38 分钟前
深度解析分布式事务3PC:解决2PC痛点的进阶方案
分布式·后端
玩转数据库管理工具FOR DBLENS40 分钟前
关系型数据库与非关系型数据库:差异、介绍与市场格局
数据库·oracle·nosql
林shir44 分钟前
Java基础1.3-Java基础语法
java
安达发公司1 小时前
安达发|效率革命:APS自动排程,为“金属丛林”安装精准导航
大数据·运维·人工智能·aps高级排程·aps排程软件·安达发aps·aps自动排程