【数据仓库】hbase的安装与简单操作

HBase 是一个分布式的、面向列的开源数据库,它支持大规模数据存储,并且是 Hadoop 生态系统的一部分。HBase 能够在廉价的硬件上运行,并提供对大量数据的随机、实时读写访问。下面是关于如何在 Linux 系统上安装 HBase 以及进行一些基本操作的介绍。

实战大数据:https://pan.quark.cn/s/c986b5749471

其他知识:https://pan.quark.cn/s/1574bed4e786

安装 HBase

准备工作
  • 安装 Java:HBase 是基于 Java 开发的,因此需要先安装 JDK。
  • 安装 Hadoop:HBase 可以在独立模式下运行,但为了充分利用其分布式特性,通常会将其与 Hadoop 集成使用。
下载 HBase

你可以从 Apache HBase 的官方网站下载最新版本的 HBase。使用 wget 或 curl 命令下载 tar 包:

复制代码
wget http://mirror.bit.edu.cn/apache/hbase/stable/hbase-<version>.tar.gz
解压文件

将下载的 HBase 压缩包解压到你希望安装的位置:

复制代码
tar -xzf hbase-<version>.tar.gz -C /usr/local/
cd /usr/local/hbase-<version>
配置环境变量

编辑 ~/.bashrc 文件,添加 HBase 的环境变量:

复制代码
export HBASE_HOME=/usr/local/hbase-<version>
export PATH=$PATH:$HBASE_HOME/bin

然后使配置生效:

复制代码
source ~/.bashrc
配置 HBase

编辑 conf/hbase-env.sh 文件,设置 Java 的路径:

复制代码
export JAVA_HOME=/path/to/your/jdk

对于 HBase 的主配置文件 conf/hbase-site.xml,如果是单机模式,可以保持默认配置;如果是在集群中使用,需要指定 ZooKeeper 的地址等信息。

启动 HBase

启动 HBase 之前,确保 Hadoop 已经正确启动(如果你选择集成 Hadoop):

复制代码
start-hbase.sh

基本操作

进入 HBase Shell
复制代码
hbase shell
创建表

假设我们想要创建一个名为 users 的表,包含一个名为 personal 的列族:

复制代码
create 'users', 'personal'
插入数据

users 表的 personal 列族中插入一行数据,行键为 1,列名为 name,值为 Alice

复制代码
put 'users', '1', 'personal:name', 'Alice'
查询数据

查询 users 表中行键为 1 的所有数据:

复制代码
get 'users', '1'
删除数据

删除 users 表中行键为 1,列族 personal 下的 name 列的数据:

复制代码
delete 'users', '1', 'personal:name'
删除表

首先禁用表,然后删除:

复制代码
disable 'users'
drop 'users'
查看所有表

列出所有现有的表:

复制代码
list

以上就是 HBase 的基本安装步骤和一些简单的操作命令。请注意,这里介绍的是单机模式下的安装与操作,如果要在生产环境中使用 HBase,还需要考虑更多因素,如集群配置、性能调优等。

相关推荐
代码匠心1 天前
从零开始学Flink:Flink SQL四大Join解析
大数据·flink·flink sql·大数据处理
武子康2 天前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
SelectDB3 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康3 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
IvanCodes3 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康4 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
字节跳动数据平台5 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康6 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台6 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术6 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark