Phoenix基本使用

1、Phoenix简介

1.1 Phoenix定义

Phoenix是HBase的开源SQL皮肤。可以使用标准JDBC API代替HBase客户端API来创建表,插入数据和查询HBase数据。

1.2 Phoenix特点

  1. 容易集成:如Spark,Hive,Pig,Flume和Map Reduce。
  2. 性能好:直接使用HBase API以及协处理器和自定义过滤器,可以为小型查询提供毫秒级的性能,或者为数千万行提供数秒的性能。
  3. 操作简单:DML命令以及通过DDL命令创建表和版本化增量更改。
  4. 安全功能: 支持GRANT和REVOKE 。
  5. 完美支持Hbase二级索引创建。

1.3 Phoenix架构

1.4 Phoenix的作用

2、Phoenix快速入门

2.1 Phoenix安装部署

2.1.1官方网址: http://phoenix.apache.org/index.html

2.1.2 上传jar包到/opt/software/

解压到/opt/module 改名为phoenix

powershell 复制代码
[ybb@hadoop101 module]$ tar -zxvf /opt/software/apache-phoenix-4.14.1-HBase-1.3-bin.tar.gz -C /opt/module 

[ybb@hadoop101 module]$ mv apache-phoenix-4.14.1-HBase-1.3-bin phoenix

2.1.3 复制server和client这俩个包拷贝到各个节点的hbase/lib

在phoenix目录下

powershell 复制代码
[ybb@hadoop101 module]$ cd /opt/module/phoenix/

向每个节点发送server jar

powershell 复制代码
[ybb@hadoop101 phoenix]$ cp phoenix-4.14.1-HBase-1.3-server.jar /opt/module/hbase-1.3.1/lib/
[ybb@hadoop101 phoenix]$ scp phoenix-4.14.1-HBase-1.3-server.jar hadoop102:/opt/module/hbase-1.3.1/lib/
[ybb@hadoop101 phoenix]$ scp phoenix-4.14.1-HBase-1.3-server.jar hadoop103:/opt/module/hbase-1.3.1/lib/

向每个节点发送client jar

powershell 复制代码
[ybb@hadoop101 phoenix]$ cp phoenix-4.14.1-HBase-1.3-client.jar /opt/module/hbase-1.3.1/lib/
[ybb@hadoop101 phoenix]$ scp phoenix-4.14.1-HBase-1.3-client.jar hadoop102:/opt/module/hbase-1.3.1/lib/
[ybb@hadoop101 phoenix]$ scp phoenix-4.14.1-HBase-1.3-client.jar hadoop103:/opt/module/hbase-1.3.1/lib/

2.1.4在root权限下给/etc/profile 下添加如下内容

powershell 复制代码
#phoenix
	export PHOENIX_HOME=/opt/module/phoenix
	export PHOENIX_CLASSPATH=$PHOENIX_HOME
	export PATH=$PATH:$PHOENIX_HOME/bin

2.1.5启动Zookeeper,Hadoop,Hbase

2.1.6启动Phoenix

powershell 复制代码
[ybb@hadoop101 phoenix]$ /opt/module/phoenix/bin/sqlline.py hadoop101,hadoop102,hadoop103:2181

2.2 phoenix表操作

2.2.1 显示所有表

powershell 复制代码
!table 或 !tables

2.2.2 创建表

powershell 复制代码
CREATE TABLE IF NOT EXISTS us_population (
State CHAR(2) NOT NULL,
City VARCHAR NOT NULL,
Population BIGINT
CONSTRAINT my_pk PRIMARY KEY (state, city));

如下显示:

在phoenix中,默认情况下,表名等会自动转换为大写,若要小写,使用双引号,如"us_population"。

2.2.3 插入记录

upsert into us_population values('NY','NewYork',8143197);

2.2.4 查询记录

select * from us_population ;

select * from us_population wherestate='NY';

2.2.5 删除记录

delete from us_population wherestate='NY';

2.2.6 删除表

drop table us_population;

2.2.7 退出命令行

!quit

2.3 phoenix表映射

2.3.1 Phoenix和Hbase表的关系

默认情况下,直接在hbase中创建的表,通过phoenix是查看不到的。如图1和图2,US_POPULATION是在phoenix中直接创建的,而kylin相关表是在hbase中直接创建的,在phoenix中是查看不到kylin等表的。

hbase命令行中查看所有表:

如果要在phoenix中操作直接在hbase中创建的表,则需要在phoenix中进行表的映射。映射方式有两种:视图映射和表映射

2.3.2 Hbase命令行中创建表test

Hbase 中test的表结构如下,两个列簇name、company.

启动Hbase shell

ybb@hadoop101 \~\]$ /opt/module/hbase-1.3.1/bin/hbase shell 创建Hbase表test hbase(main):001:0\> create 'test','name','company' 创建表,如下图: ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/0168a33e31a2a618c8ebaa438c7287ff.webp) #### 2.3.3 视图映射 Phoenix创建的视图是只读的,所以只能用来做查询,无法通过视图对源数据进行修改等操作。 在phoenix中创建视图test表 ```powershell 0: jdbc:phoenix:hadoop101,hadoop102,hadoop103> create view "test"(empid varchar primary key,"name"."firstname" varchar,"name"."lastname" varchar,"company"."name" varchar,"company"."address" varchar); ``` 删除视图 ```powershell 0: jdbc:phoenix:hadoop101,hadoop102,hadoop103> drop view "test"; ``` #### 2.3.3 表映射 使用Apache Phoenix创建对HBase的表映射,有两种方法: 1) 当HBase中已经存在表时,可以以类似创建视图的方式创建关联表,只需要将create view改为create table即可。 ```powershell 0: jdbc:phoenix:hadoop101,hadoop102,hadoop103> create table "test"(empid varchar primary key,"name"."firstname" varchar,"name"."lastname" varchar,"company"."name" varchar,"company"."address" varchar); ``` 2) 当HBase中不存在表时,可以直接使用create table指令创建需要的表,系统将会自动在Phoenix和HBase中创建person_infomation的表,并会根据指令内的参数对表结构进行初始化。 ```powershell 0: jdbc:phoenix:hadoop101,hadoop102,hadoop103> create table "test"(empid varchar primary key,"name"."firstname" varchar,"name"."lastname" varchar,"company"."name" varchar,"company"."address" varchar); ``` #### 2.3.4 使用spark对phoenix的读写 ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/7337e451c4ef69694116e974200f3cd5.webp) 在Phoenix中查看数据 select \* from STOCK_SYMBOL 如下显示: ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/f2228ba5f914fbd2a23abd7c2c43db5e.webp) 在Hbase中查看数据 scan "STOCK_SYMBOL" ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/ea7fcafa3abcdbd43a851d610360ed8c.webp) 更多使用详情,请参考http://phoenix.apache.org/phoenix_spark.html #### 2.3.5 视图映射和表映射的对比与总结: 相比于直接创建映射表,视图的查询效率会低,原因是:创建映射表的时候,Phoenix会在表中创建一些空的键值对,这些空键值对的存在可以用来提高查询效率。 使用create table创建的关联表,如果对表进行了修改,源数据也会改变,同时如果关联表被删除,源表也会被删除。但是视图就不会,如果删除视图,源数据不会发生改变。 ## 3、Phoenix创建Hbase二级索引 ### 3.1 配置Hbase支持Phoenix创建二级索引 #### 3.1.1 添加如下配置到Hbase的Hregionserver节点的hbase-site.xml ```powershell hbase.regionserver.wal.codec org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec hbase.region.server.rpc.scheduler.factory.class org.apache.hadoop.hbase.ipc.PhoenixRpcSchedulerFactory Factory to create the Phoenix RPC Scheduler that uses separate queues for index and metadata updates hbase.rpc.controllerfactory.class org.apache.hadoop.hbase.ipc.controller.ServerRpcControllerFactory Factory to create the Phoenix RPC Scheduler that uses separate queues for index and metadata updates ``` #### 3.1.2 添加如下配置到Hbase中Hmaster节点的hbase-site.xml中 ```powershell hbase.master.loadbalancer.class org.apache.phoenix.hbase.index.balancer.IndexLoadBalancer hbase.coprocessor.master.classes org.apache.phoenix.hbase.index.master.IndexMasterObserver ``` #### 3.1.3 常见问题汇总: 1)注意:网上配置文档里有这一条,但在实际测试中(测试环境hbase-1.3.1,网上0.98.6),加入该条的regionserver会在hbase启动时失败,对应节点上没有HregionServer进程,去掉该配置后正常启动,且能正常创建local index。 ```powershell hbase.coprocessor.regionserver.classes org.apache.hadoop.hbase.regionserver.LocalIndexMerger ``` 2)hbase-site.xml的zookeeeper的配置信息不能加2181,否则在创建local index的时候会报以下异常: ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/bcf47e967a7237cd51b6849971674abd.webp) 正常配置: ```powershell hbase.zookeeper.quorum hadoop101,hadoop102,hadoop103 ``` ### 3.2创建索引 #### 3.2.1 phoenix的索引分类 1)global index是默认的索引格式。适用于多读少写的业务场景。写数据的时候会消耗大量开销,因为索引表也要更新,而索引表是分布在不同的数据节点上的,跨节点的数据传输带来了较大的性能消耗。在读数据的时候Phoenix会选择索引表来降低查询消耗的时间。如果想查询的字段不是索引字段的话索引表不会被使用,也就是说不会带来查询速度的提升。 CREATE INDEX my_index ON my_table (my_index) 2)Local index适用于写操作频繁的场景。索引数据和数据表的数据是存放在相同的服务器中的,避免了在写操作的时候往不同服务器的索引表中写索引带来的额外开销。查询的字段不是索引字段索引表也会被使用,这会带来查询速度的提升。 CREATE LOCAL INDEX my_index ON my_table (my_index) #### 3.2.2 三种提升效率查询方式 1) CREATE INDEX my_index ON my_table (v1) INCLUDE (v2) 2) SELECT /\*+ INDEX(my_table my_index) \*/ v2 FROM my_table WHERE v1 = 'foo' 3) CREATE LOCAL INDEX my_index ON my_table (v1) #### 3.2.3 如何删除索引 DROP INDEX my_index ON my_table ## 4、 Squirrel可视化连接Phoenix ### 4.1 下载Squirrel的jar包官方网址 http://squirrel-sql.sourceforge.net/ ### 4.2 在Windows环境下安装Squirrel程序 1. 选择Java方式打开安装 ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/568282b7833ee0c5e77066e5fb3777e3.webp) 2. 自定义安装目录 ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/0a7e46256bcc8ed5a4d5dee0cc305cc8.webp) 3) 一直Next到安装完成 ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/86995d587ae7ef03984d874677703198.webp) ### 4.3 配置Squirrel连接到Phoenix 1) 复制Phoenix的client.jar包到D:\\work\\squirrel\\lib的lib下 ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/6afd5782a917b2958042dc030f103af6.webp) 2) 启动Squirrel ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/d8ce64981d98afebafb7080d1a341262.webp) 3) 配置Driver ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/c6f1d8e74d0266c18adcbcfc9cf9d6d7.webp) 4) 添加Driver具体配置信息 ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/1780613fac933b005bbf98dcf3e95e7f.webp) 配置信息: Name=Phoenix Example URL = jdbc:phoenix:hadoop101,hadoop102,hadoop103:2181 Java Class Path 选择D:\\work\\squirrel\\lib\\phoenix-4.14.1-HBase-1.3-client.jar Class Name = org.apache.phoenix.jdbc.PhoenixDriver 5)配置Aliases ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/5238b1f0e3ca9a305f0b4a8725f4924f.webp) 6)添加Aliases具体配置信息 ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/cc497d24e467b3bf07b8d581d8496c7e.webp) 配置信息: Name=任意 Driver选择刚才添加的Phoenix URL= jdbc:phoenix:hadoop101,hadoop102,hadoop103:2181 User Name = 任意 Password = 任意 7)测试连接是否成功 ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/b3bb6eda1a1d3d365a6449a2b458c3ec.webp) 双击连接Phoenix ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/19b637b182fe78f973d876f36c00089a.webp) 8)使用Squirrel查询数据 ![在这里插入图片描述](https://file.jishuzhan.net/article/1745078795087384578/c315b66252cf44614061b9a2605c28de.webp) 查询sql(WEB_STAT表要提前建好并导入数据) \[ybb@hadoop101 bin\]$ psql.py .../examples/STOCK_SYMBOL.sql \[ybb@hadoop101 bin\]$ psql.py .../examples/STOCK_SYMBOL.csv select \* from WEB_STAT;

相关推荐
FlyingZCC10 个月前
Apache Omid Idea Debug 环境搭建
java·apache·intellij-idea·phoenix·omid
ls_elect1 年前
ubuntu22.04下hadoop3.3.6+hbase2.5.6+phoenix5.1.3开发环境搭建
linux·hadoop·zookeeper·hbase·phoenix
love_燕子2 年前
【无标题】
phoenix