hbase集成phoenix

1.环境

环境准备

  1. 三台节点
  2. zookeeper三节点
  3. hadoop三节点
  4. hbase三节点

2.pheonix集成

官网下载地址,需挂梯子,使用官网推荐的对应hbase版本即可

bash 复制代码
https://phoenix.apache.org/download.html

下载及解压

bash 复制代码
wget https://dlcdn.apache.org/phoenix/phoenix-5.2.0/phoenix-hbase-2.5.0-5.2.0-bin.tar.gz
tar -zxvf phoenix-hbase-2.5.0-5.2.0-bin.tar.gz
mv phoenix-hbase-2.5.0-5.2.0-bin phoenix-hbase

修改 /etc/profile 环境变量

bash 复制代码
export PHEONIX_HOME=/root/phoenix-hbase
export PHEONIX_CLASSPATH=$PHEONIX_HOME
export PATH=$PHEONIX_HOME/bin:$PATH

配置资源重载

bash 复制代码
source /etc/profile

拷贝解压包内服务端jar至hbase/lib目录

bash 复制代码
cp phoenix-server-hbase-2.5.0-5.2.0.jar ../hbase/lib/

三台节点均配置

3. 开启二级索引

修改 hbase-site.xml

bash 复制代码
<property>
	<name>hbase.regionserver.wal.codec</name>
	<value>org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec</value>
</property>

三台节点均配置

4.启动pheonix

重启hbase

bash 复制代码
./stop-hbase.sh
bash 复制代码
./start-hbase.sh

单机具体重启看上篇hbase文章

这里连接的是zookeeper地址,默认使用2181端口

bash 复制代码
sqlline.py node1,node2,node3

执行语句即可

bash 复制代码
CREATE TABLE IF NOT EXISTS "student"(
id VARCHAR primary key,
name VARCHAR,
age BIGINT,
addr VARCHAR
);

5.索引

5.1.全局索引

bash 复制代码
create index index_name on my_table(column);

在查询列只有column时快,在hbase中会单独开索引表使用一行存储,有其他列需回表

如 select columns from my_table where columns =xxx

5.2.包含索引

bash 复制代码
create index index_name on my_table(column1) include(column2);

在查询列只有 column1或column2 都快,在hbase中一条数据会使用两行存储

phoenix语法-官网

bash 复制代码
https://phoenix.apache.org/language/index.htm

5.3 本地索引

bash 复制代码
create local index index_name on my_table(columns);

columns可多个

适用于写操作频繁,会将所有信息放在一个影子列族中,读取也是范围扫描但是没有全局索引快,会直接在表中修改,不用单独创建索引表

后续命令行或者使用客户端连接即可

相关推荐
NineData1 小时前
NineData 迁移评估功能正式上线
数据库·dba
NineData7 小时前
数据库迁移总踩坑?用 NineData 迁移评估,提前识别所有兼容性风险
数据库·程序员·云计算
赵渝强老师9 小时前
【赵渝强老师】PostgreSQL中表的碎片
数据库·postgresql
字节跳动数据平台13 小时前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
全栈老石13 小时前
拆解低代码引擎核心:元数据驱动的"万能表"架构
数据库·低代码
得物技术14 小时前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
大大大大晴天15 小时前
Flink生产问题排障-HBase NotServingRegionException
flink·hbase
武子康16 小时前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
倔强的石头_1 天前
kingbase备份与恢复实战(二)—— sys_dump库级逻辑备份与恢复(Windows详细步骤)
数据库
武子康2 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive