Hbase进阶

通过hive操作hbase的注意事项:

(1)启动yarn服务:

yarn-daemon.sh start resourcemanager

yarn-daemon.sh start nodemanager

(2)在hive中建表时附加上:

stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'

with

serdeproperties ("hbase.columns.mapping"=":key,列族:列名,...")

tblproperties("hbase.table.name" = "表名");

=====例1=====

--在hbase中创建表

create 'customer','order','addr'

--在hive中创建表映射

create external table customer(

name string,

order_numb string,

order_date string,

addr_city string,

addr_state string)

stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'

with

serdeproperties ("hbase.columns.mapping"=":key,order:numb,order:date,addr:city,addr:state")

tblproperties("hbase.table.name" = "customer")

;

--在hive中执行以下更新查询操作

insert into table customer values ('James','1121','2018-05-31','toronto','ON');

select * from customer;

--在hbase中执行如下语句

scan 'customer'

put 'customer','Smith','order:numb','1122'

put 'customer','Smith','order:date','2019-09-12'

put 'customer','Smith','addr:city','beijing'

put 'customer','Smith','addr:state','HD'

--在hive中执行以下查询操作

select * from customer;

=====例2=====

1.在hbase中创建表

--不要create 'hive_hbase_emp_table','info'

2.实现Hive中创建表hive_hbase_emp_table关联HBase

CREATE TABLE hive_hbase_emp_table(

empno int,

ename string,

job string,

mgr int,

hiredate string,

sal double,

comm double,

deptno int)

STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'

WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")

TBLPROPERTIES ("hbase.table.name" = "hive_hbase_emp_table");

3.在Hive中插入数据,通过HBase查询

--hive中执行如下语句

insert into table hive_hbase_emp_table values(1,'Eric','Developer',5,'2019-12-18',2800.0,312.0,10);

--hbase shell中执行如下语句

scan 'hive_hbase_emp_table'

4.在HBase中插入数据,通过Hive查询

--在hbase shell中执行如下语句

put 'hive_hbase_emp_table','2','info:ename','zhangsan'

--在hive中执行如下语句

select * from hive_hbase_emp_table;

指定拆分算法,在linux中执行:

hbase org.apache.hadoop.hbase.util.RegionSplitter test_split1 HexStringSplit -c 10 -f mycf

#指定拆分点

create 'test_split2','mycf2',SPLITS=>['aaa','bbb','ccc','ddd','eee','fff']

#指定拆分文件

先在linux中创建以下内容的文件:

aaa

bbb

ccc

ddd

eee

fff

再在hbase中创建表

create 'test_split3','baseinfo',SPLITS_FILE => '/root/data/splits.txt'

Region 冷合并【必须先停止hbase服务,在linux中执行】

hbase org.apache.hadoop.hbase.util.Merge <table-name> <region-1> <region-2>

【注】<region-1><region-2>包括"表名,分界点,时间戳.regionId."

Region 热合并【无需停止hbase服务,在hbase中执行】

merge 'region-1','region-2'

【注】region-1和region-2是指regionId

HFile minor合并

hbase.hregion.memstore.flush.size【134217728B=128M】

hbase.regionserver.optionalcacheflushinterval【3600000ms=1h】

hbase.hstore.compactionThreshold【3】

hbase.hstore.compaction.max【10】

HFile major合并

hbase.hregion.majorcompaction【604800000ms】

相关推荐
科技小花4 小时前
数据治理平台架构演进观察:AI原生设计如何重构企业数据管理范式
数据库·重构·架构·数据治理·ai-native·ai原生
一江寒逸4 小时前
零基础从入门到精通MySQL(中篇):进阶篇——吃透多表查询、事务核心与高级特性,搞定复杂业务SQL
数据库·sql·mysql
2501_948114244 小时前
2026年大模型API聚合平台技术评测:企业级接入层的治理演进与星链4SAPI架构观察
大数据·人工智能·gpt·架构·claude
D4c-lovetrain4 小时前
linux个人心得22 (mysql)
数据库·mysql
黎阳之光5 小时前
黎阳之光:视频孪生领跑者,铸就中国数字科技全球竞争力
大数据·人工智能·算法·安全·数字孪生
阿里小阿希5 小时前
CentOS7 PostgreSQL 9.2 升级到 15 完整教程
数据库·postgresql
荒川之神5 小时前
Oracle 数据仓库雪花模型设计(完整实战方案)
数据库·数据仓库·oracle
做个文艺程序员5 小时前
MySQL安全加固十大硬核操作
数据库·mysql·安全
不吃香菜学java5 小时前
Redis简单应用
数据库·spring boot·tomcat·maven
一个天蝎座 白勺 程序猿5 小时前
Apache IoTDB(15):IoTDB查询写回(INTO子句)深度解析——从语法到实战的ETL全链路指南
数据库·apache·etl·iotdb