HBase常用命令

简介:

HBase Shell 是一种操作HBase的交互模式,支持完整的HBase命令集。

shell 复制代码
hbase shell	 # 打开Hbase Shell

目录:

命令类别 常用命令
[General](#命令类别 常用命令 General version,status,whoami,help DDL alter,creater,describe,disable,drop,enable,exists,is_disabled,is_enabled,list, DML count,delete,deleteall,get,get_counter,incr,put,scan,truncate Tools assign,balance_switch,balancer,close_region,compact,flush,major_compact,move,split,unassign,zk_dump Replication add_peer,disable_peer,enable_peer,remove_peer,start_replication,stop_replication) version,status,whoami,help
[DDL](#命令类别 常用命令 General version,status,whoami,help DDL alter,creater,describe,disable,drop,enable,exists,is_disabled,is_enabled,list, DML count,delete,deleteall,get,get_counter,incr,put,scan,truncate Tools assign,balance_switch,balancer,close_region,compact,flush,major_compact,move,split,unassign,zk_dump Replication add_peer,disable_peer,enable_peer,remove_peer,start_replication,stop_replication) alter,creater,describe,disable,drop,enable,exists,is_disabled,is_enabled,list,
[DML](#命令类别 常用命令 General version,status,whoami,help DDL alter,creater,describe,disable,drop,enable,exists,is_disabled,is_enabled,list, DML count,delete,deleteall,get,get_counter,incr,put,scan,truncate Tools assign,balance_switch,balancer,close_region,compact,flush,major_compact,move,split,unassign,zk_dump Replication add_peer,disable_peer,enable_peer,remove_peer,start_replication,stop_replication) count,delete,deleteall,get,get_counter,incr,put,scan,truncate
[Tools](#命令类别 常用命令 General version,status,whoami,help DDL alter,creater,describe,disable,drop,enable,exists,is_disabled,is_enabled,list, DML count,delete,deleteall,get,get_counter,incr,put,scan,truncate Tools assign,balance_switch,balancer,close_region,compact,flush,major_compact,move,split,unassign,zk_dump Replication add_peer,disable_peer,enable_peer,remove_peer,start_replication,stop_replication) assign,balance_switch,balancer,close_region,compact,flush,major_compact,move,split,unassign,zk_dump
[Replication](#命令类别 常用命令 General version,status,whoami,help DDL alter,creater,describe,disable,drop,enable,exists,is_disabled,is_enabled,list, DML count,delete,deleteall,get,get_counter,incr,put,scan,truncate Tools assign,balance_switch,balancer,close_region,compact,flush,major_compact,move,split,unassign,zk_dump Replication add_peer,disable_peer,enable_peer,remove_peer,start_replication,stop_replication) add_peer,disable_peer,enable_peer,remove_peer,start_replication,stop_replication

一、General(通用操作)

shell 复制代码
help			# 显示hbase shell的帮助信息,包括可用的命令列表、命令的简要描述以及如何使用这些命令等。
help 'status'	# 获取命令的详细信息
version			# 查看HBase的版本信息。
status			# 查看HBase集群的状态,包括集群是否运行正常、各RegionServer的状态等。
whoami			# 查看当前在Hbase shell中登录的用户信息

二、DDL(数据定义语言)

主要用于定义、修改和删除数据库对象,如表、视图、索引等

1、命名空间

命令格式
shell 复制代码
list_namespace			# 列出命名空间
create_namespace "NAME"	# 创建一个新的命名空间
list_namespace_tables 'NAME' # 列出命名空间下的表
drop_namespace 'NAME'	# 删除命名空间,需要删除改命名空间下的所有表后才能删除
  • NAME:命名空间名称
案例
shell 复制代码
list_namespace					# 列出命名空间
create_namespace "hbase_test" 	# 创建命名空间名为hbase_test
list_namespace_tables 'hbase_test' # 列出hbase_test命名空间下的表,发现是空的则可以删除该命名空间
drop_namespace 'hbase_test'	  	# 删除命名空间hbase_test

2、数据表格

命令格式

创建表

shell 复制代码
create "[NAMESPACE:]TABLE",{NAME=>"cf1",VERSIONS=1, ...},...,{NAME=>"cfn",VERSIONS=1,...}	# 创建表
list_namespace_tables "NAMESPACE"	# 列出该命名空间的所有表
desc "[NAMESPACE:]TABLE"			# 查看表的详细信息
exists "[NAMESPACE:]TABLE"			# 判断表是否存在

修改表:存在则覆盖,不存在则追加

shell 复制代码
alter  "[NAMESPACE:]TABLE","cf1"	# 给表添加列族cf1...

删除列族

shell 复制代码
alter "[NAMESPACE:]TABLE","delete"=>"cf1" # 删除列族cf1
is_enabled "[NAMESPACE:]TABLE"		# 这个命令用于检查指定表是否已启用
is_disabled "[NAMESPACE:]TABLE"		# 这个命令用于检查指定表是否已被禁用
enable "[NAMESPACE:]TABLE"			# 启用一个被禁用的表
disable "[NAMESPACE:]TABLE"			# 禁用一个表

删除表之前必须先禁用

shell 复制代码
drop "[NAMESPACE:]TABLE"			# 删除表
  • NAMESPACE:命名空间的名称
  • [NAMESPACE:]TABLE:要创建的表的名称,哪个命名空间下的哪找表,[ ]代表里面的值可以省略
  • {NAME=>"cf1",VERSIONS=1, ...},...:定义了表的列族及其属性
  • cf1~cfn:列族名称
  • VERSIONS=1:每个列族指定版本数
案例

存在创建表

shell 复制代码
exists "hbase_test:student_info"					# 判断hbase_test命名空间下是否有student_info表
create "hbase_test:student_info","base","scores"	#在hbase_test命名空间下创建了一个表叫student_info,含有两个列族base,scores
list_namespace_tables "hbase_test"			# 列出hbase_test命名空间的所有表

查看修改表

shell 复制代码
alter "hbase_test:student_info", "base2"	# hbase_test命名空间下student_info表,添加列族base2
desc "hbase_test:student_info"				# 查看hbase_test命名空间下student_info表的详细信息
alter "hbase_test:student_info","delete"=>"base2"	# 删除列族base2

禁用删除表

shell 复制代码
is_enabled "hbase_test:student_info"		# 检查指定表是否已启用
disable "hbase_test:student_info"			# 禁用一个表
drop "hbase_test:student_info"				# 删除表

三、DML(数据操纵语言)

则主要用于插入、更新、删除和查询数据库中的数据

命令格式

新增数据

shell 复制代码
put "[NAMESPACE:]TABLE","ROW_KEY","CF:CN",VALUE	

查看数据

shell 复制代码
count "[NAMESPACE:]TABLE"				# 计算表中行的数量
get "[NAMESPACE:]TABLE","ROW_KEY"		# 表中指定行键(ROW_KEY)的所有列和最新版本的数据
get "[NAMESPACE:]TABLE","ROW_KEY","CF"	# 表中指定行键(ROW_KEY)和列族(CF)的所有列的数据。
get "[NAMESPACE:]TABLE","ROW_KEY","CF:CN"	# 表中指定行键(ROW_KEY)、列族(CF)和列限定符(CN)的单个单元格的数据。

# 扫描HBase表中的数据。它接受一个参数列表,用于指定扫描的各种选项和过滤器
scan "[NAMESPACE:]TABLE",{VERSIONS => 5, FILTER => "KeyOnlyFilter(true)", ROWPREFIXFILTER => 'row_key'}

删除数据

shell 复制代码
delete "[NAMESPACE:]TABLE","ROW_KEY","CF:CN"	# 删除单元格最近版本数据
deleteall "[NAMESPACE:]TABLE","ROW_KEY","CF:CN"	# 删除字段
deleteall "[NAMESPACE:]TABLE","ROW_KEY"			# 删除整行
truncate "[NAMESPACE:]TABLE"					# 删除所有数据

计数器列相关的操作

shell 复制代码
#确保指定的表、行键和列存在,并且列的类型是计数器列
#针对不存在的列操作,针对存在的列会报错 Field is not a long, it's 10 bytes wide
incr "[NAMESPACE:]TABLE","ROW_KEY","cf:cn",N		# 原子性地增加一个计数器列的值
get_counter "[NAMESPACE:]TABLE","ROW_KEY","cf:cn"	# 用于获取计数器列的当前值
  • ROW_KEY:行键
  • CF:CN:列族:列限定符
  • FILTER => "KeyOnlyFilter(true)":应用一个过滤器,只返回键而不返回值
  • ROWPREFIXFILTER => 'row_key':应用一个行前缀过滤器,只返回行键以row_key为前缀的行。
案例

新增数据

shell 复制代码
# 新增三个学生信息
put "hbase_test:student_info","1","base:name","张老三"
put "hbase_test:student_info","1","base:age",22
put "hbase_test:student_info","1","base:gender","男"
put "hbase_test:student_info","1","scores:hive",72
put "hbase_test:student_info","1","scores:hbase",88

put "hbase_test:student_info","2","base:name","张老二"
put "hbase_test:student_info","2","base:age",26
put "hbase_test:student_info","2","base:gender","女"
put "hbase_test:student_info","2","scores:hive",66
put "hbase_test:student_info","2","scores:hbase",35

put "hbase_test:student_info","3","base:name","张老大"
put "hbase_test:student_info","3","base:age",35
put "hbase_test:student_info","3","base:gender","男"
put "hbase_test:student_info","3","scores:hive",89
put "hbase_test:student_info","3","scores:hbase",90

查看数据

shell 复制代码
count "hbase_test:student_info"		# 计算hbase_test命名空间下student_info表中行的数量
get "hbase_test:student_info","1"	# 查看行键为1的数据
get "hbase_test:student_info","1","base"
get "hbase_test:student_info","1","base:name"

scan "hbase_test:student_info"	# 查看所有数据

# 返回键而不返回值,返回行键以1为前缀的行
scan "hbase_test:student_info",{VERSIONS => 1, FILTER => "KeyOnlyFilter(true)", ROWPREFIXFILTER => '1'}

删除数据

shell 复制代码
delete "hbase_test:student_info","1","base:name"	# 删除单元格最近版本数据
deleteall "hbase_test:student_info","1","base:age"	# 删除字段
deleteall "hbase_test:student_info","1"				# 删除行键为1的所有值
truncate "hbase_test:student_info"					# 删除所有数据

计数器列相关的操作

shell 复制代码
incr "hbase_test:student_info","1","base:num",1			# 增加一个计数器列的值1
get_counter "hbase_test:student_info","1","base:num"	# 得到值 1

四、Tools(工具)

待整理

管理表存储文件,对于优化HBase的性能和恢复存储空间非常重要

shell 复制代码
major_compact "[NAMESPACE:]TABLE"	# 触发表的主要压缩
compact "[NAMESPACE:]TABLE"			# 触发表的普通压缩

导入数据

使用 HBase 的 ImportTsv 工具从一个 TSV(Tab-separated values,制表符分隔值)文件导入数据到 HBase 表中

shell 复制代码
hbase org.apache.hadoop.hbase.mapreduce.ImportTsv \
-Dimporttsv.separator="," \
-Dimporttsv.columns=HBASE_ROW_KEY,info1:name,info1:age,info2:java,info2:mysql \
hbase_test:for_phoenix_test \
file:///root/hbase/students_for_import_2.csv
  • hbase org.apache.hadoop.hbase.mapreduce.ImportTsv:这是调用 HBase 的 ImportTsv 工具的命令。
  • -Dimporttsv.separator=",":设置字段分隔符为竖线(,)。
  • -Dimporttsv.columns=HBASE_ROW_KEY,info1:name,info1:age,info2:java,info2:mysql:定义 HBase 表的列族和列。HBASE_ROW_KEY 是特殊的标识符,用于指定行键。其他的列使用 列族:列名 的格式指定。
  • hbase_test:for_phoenix_test:指定 HBase 表的名字。
  • file:///root/hbase/students_for_import_2.csv:指定要导入的文件的路径。

预分区

shell 复制代码
#查看分区
scan 'hbase:meta',{STARTROW=>'hbase_test:for_mysql_import',LIMIT=>10}
#默认分区策略
IncreasingToUpperBoundRegionSplitPolicy
#预分区
create 'test:pre_par_test','cf1','cf2',{NUMREGIONS=>4 , SPLITALGO=>'UniformSplit' }
create 'test_split_table','base','scores',SPLITS=>['100','200','300']
# hdfs 存储信息
#Permission Owner Group	   Size Last Modified Rep Block Size Name	
#drwxr-xr-x root supergroup 0 B  Feb 20 17:37  0	  0 B    .tabledesc	
#drwxr-xr-x root supergroup 0 B  Feb 20 17:37  0	  0 B    .tmp	
#drwxr-xr-x root supergroup 0 B  Feb 20 17:37  0	  0 B    59cfcaf86548e4cad1...
#drwxr-xr-x root supergroup 0 B  Feb 20 17:37  0	  0 B    5ea0b24bec6c73d227...
#drwxr-xr-x root supergroup 0 B  Feb 20 17:37  0	  0 B    9256e995584fd306ea...
#drwxr-xr-x root supergroup 0 B  Feb 20 17:37  0	  0 B    ea4524c282c3876175...

HIVE 表映射

sql 复制代码
create external table for_hbase_mapping(
	row_key int,
	base_age int,
	base_gender string,
	base_name string,
	base_phone string,
	score_hadoop int,
	score_java int,
	score_spark int
) stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
with serdeproperties("hbase.columns.mapping"=":key,base:test_age,base:test_gender,base:test_name,base:test_phone,scores:hadoop,scores:java,scores:spark")
tblproperties("hbase.table.name"="hbase_test:for_mysql_import");

五、Replication

未完待续...

相关推荐
soso19688 分钟前
DataWorks快速入门
大数据·数据仓库·信息可视化
The_Ticker14 分钟前
CFD平台如何接入实时行情源
java·大数据·数据库·人工智能·算法·区块链·软件工程
java1234_小锋19 分钟前
Elasticsearch中的节点(比如共20个),其中的10个选了一个master,另外10个选了另一个master,怎么办?
大数据·elasticsearch·jenkins
Elastic 中国社区官方博客20 分钟前
Elasticsearch 开放推理 API 增加了对 IBM watsonx.ai Slate 嵌入模型的支持
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
我的运维人生20 分钟前
Elasticsearch实战应用:构建高效搜索与分析平台
大数据·elasticsearch·jenkins·运维开发·技术共享
企鹅侠客25 分钟前
ETCD调优
数据库·etcd
Json_1817901448031 分钟前
电商拍立淘按图搜索API接口系列,文档说明参考
前端·数据库
大数据编程之光36 分钟前
Flink Standalone集群模式安装部署全攻略
java·大数据·开发语言·面试·flink
B站计算机毕业设计超人38 分钟前
计算机毕业设计SparkStreaming+Kafka旅游推荐系统 旅游景点客流量预测 旅游可视化 旅游大数据 Hive数据仓库 机器学习 深度学习
大数据·数据仓库·hadoop·python·kafka·课程设计·数据可视化
煎饼小狗42 分钟前
Redis五大基本类型——Zset有序集合命令详解(命令用法详解+思维导图详解)
数据库·redis·缓存