文章目录
一、简介
1、Phoenix定义
1)官网地址:http://phoenix.apache.org/
Phoenix是HBase的开源SQL皮肤。可以使用标准JDBC API代替HBase客户端API来创建表,插入数据和查询HBase数据。
优点:使用简单,直接能写sql。
缺点:效率没有自己设计rowKey再使用API高,性能较差。
2、Phoenix架构
二、安装Phoenix
1、安装
将安装包上传到服务器目录
解压安装包
tar-zxvf apache-phoenix-5.0.0-HBase-2.0-bin.tar.gz -C /opt/module/
mv /opt/module/apache-phoenix-5.0.0-HBase-2.0-bin /opt/module/phoenix
复制server包并拷贝到各个节点
Hadoop101、Hadoop102、Hadoop103
的
hbase/lib
cp /opt/module/phoenix/phoenix-5.0.0-HBase-2.0-server.jar /opt/module/hbase/lib/
xsync /opt/module/hbase/lib/phoenix-5.0.0-HBase-2.0-server.jar
配置环境变量
vim /etc/profile.d/my_env.sh
添加内容
#phoenixexportPHOENIX_HOME=/opt/module/phoenix
exportPHOENIX_CLASSPATH=$PHOENIX_HOMEexportPATH=$PATH:$PHOENIX_HOME/bin
在hbase-site.xml中添加支持二级索引的参数(如果不需要创建二级索引,不用不加)。之后分发到所有regionserver的节点上。
vim /opt/module/hbase/conf/hbase-site.xml
xsync /opt/module/hbase/conf/hbase-site.xml
配置内容
<property>
<name>hbase.regionserver.wal.codec</name>
<value>org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec</value>
</property>
<property>
<name>hbase.region.server.rpc.scheduler.factory.class</name>
<value>org.apache.hadoop.hbase.ipc.PhoenixRpcSchedulerFactory</value>
<description>Factory to create the Phoenix RPC Scheduler that uses separate queues for index and metadata updates</description>
</property>
<property>
<name>hbase.rpc.controllerfactory.class</name>
<value>org.apache.hadoop.hbase.ipc.controller.ServerRpcControllerFactory</value>
<description>Factory to create the Phoenix RPC Scheduler that uses separate queues for index and metadata updates</description>
</property>
重启HBase
stop-hbase.sh
start-hbase.sh
连接 phoenix
/opt/module/phoenix/bin/sqlline.py hadoop101,hadoop102,hadoop103:2181
三、Phoenix操作
1、Phoenix 数据映射
Phoenix 将 HBase 的数据模型映射到关系型模型中。
Phoenix中的主键会作为rowkey,非主键列作为普通字段。默认使用0作为列族,也可以在建表时使用 列族.列名 作为字段名,显式指定列族。
如果主键是联合主键,则会将主键字段拼接作为rowkey。
2、Phoenix Shell操作
- 登录Phoenix
/opt/module/phoenix/bin/sqlline.py hadoop101,hadoop102,hadoop103:2181
- 创建表
CREATETABLEIFNOTEXISTS student(
id VARCHARprimarykey,
name VARCHAR,
addr VARCHAR);
在phoenix中,表名等会自动转换为大写,若要小写,使用双引号,如"us_population"。
CREATETABLEIFNOTEXISTS"un_student"(
id VARCHARprimarykey,
name VARCHAR,
addr VARCHAR);
# 指定多个列的联合作为RowKeyCREATETABLEIFNOTEXISTS us_population (
State CHAR(2)NOTNULL,
City VARCHARNOTNULL,
Population BIGINTCONSTRAINT my_pk PRIMARYKEY(state, city));
注意:Phoenix中建表,会在HBase中创建一张对应的表。为了减少数据对磁盘空间的占用,Phoenix默认会对HBase中的列名做编码处理。具体规则可参考官网链接:https://phoenix.apache.org/columnencoding.html,若不想对列名编码,可在建表语句末尾加上
COLUMN_ENCODED_BYTES = 0;
CREATETABLEIFNOTEXISTS student(
id VARCHARprimarykey,
name VARCHAR,
addr VARCHAR)
COLUMN_ENCODED_BYTES =0;
- 插入或更新数据
upsert执行时,判断如果主键存在就更新,不存在则执行插入。
- 插入或更新数据
upsert执行时,判断如果主键存在就更新,不存在则执行插入。
upsert into student values('1001','zhangsan','beijing');
- 查询记录
select*from student;select*from student where id='1001';
- 删除记录
deletefrom student where id='1001';
- 删除表
droptable student;
- 退出命令行
!quit
3、Phoenix JDBC操作
3.1 胖客户端
- 胖客户端指将Phoenix的所有功能都集成在客户端,导致客户端代码打包后体积过大。
pom依赖
<!-- 胖客户端--><dependency><groupId>org.apache.phoenix</groupId><artifactId>phoenix-core</artifactId><version>5.0.0-HBase-2.0</version><exclusions><exclusion><groupId>org.glassfish</groupId><artifactId>javax.el</artifactId></exclusion></exclusions></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>2.7.2</version></dependency>
测试代码:
importjava.sql.*;publicclassTestThickClient{publicstaticvoidmain(String[] args)throwsSQLException{// 1.添加链接String url ="jdbc:phoenix:hadoop101,hadoop102,hadoop103:2181";// 2.获取连接Connection connection =DriverManager.getConnection(url);// 3.编译SQL语句PreparedStatement preparedStatement = connection.prepareStatement("select * from student");// 4.执行语句ResultSet resultSet = preparedStatement.executeQuery();System.out.println("===");// 5.输出结果while(resultSet.next()){System.out.println(resultSet.getString(1)+":"+ resultSet.getString(2)+":"+ resultSet.getString(3));}// 6.关闭资源
connection.close();}}
3.2 瘦客户端
- 瘦客户端指将Phoenix的功能进行拆解,主要功能由服务端提供,只使用轻量级的客户端向服务端发送请求。
服务上启动
hadoop101
queryserver.py start
pom文件
<!-- 瘦客户端--><dependency><groupId>org.apache.phoenix</groupId><artifactId>phoenix-queryserver-client</artifactId><version>5.0.0-HBase-2.0</version></dependency><dependency><groupId>com.google.protobuf</groupId><artifactId>protobuf-java</artifactId><version>3.21.4</version></dependency>
测试代码
importorg.apache.phoenix.queryserver.client.ThinClientUtil;importjava.sql.*;publicclassTestThinClient{publicstaticvoidmain(String[] args)throwsSQLException{// 1. 直接从瘦客户端获取链接String hadoop102 =ThinClientUtil.getConnectionUrl("hadoop101",8765);System.out.println(hadoop102);// 2. 获取连接Connection connection =DriverManager.getConnection(hadoop102);// 3.编译SQL语句PreparedStatement preparedStatement = connection.prepareStatement("select * from student");// 4.执行语句ResultSet resultSet = preparedStatement.executeQuery();// 5.输出结果while(resultSet.next()){System.out.println(resultSet.getString(1)+":"+ resultSet.getString(2)+":"+ resultSet.getString(3));}// 6.关闭资源
connection.close();}}
四、Phoenix二级索引
1、为什么需要二级索引
- 在HBase中查询时,必须指定rowkey。但是在Phoenix中,可以通过sql语句进行查询,在编写sql语句时,有事我们可能在不使用主键的情况下,进行过滤查询。此时好比是不使用rowkey,直接查询某一列。这样必须对某个表进行全表扫描,才能查询到指定的数据,效率低。
- 二级索引是针对列的索引,通过建立二级索引,可以在不使用主键进行查询的场景中提升查询效率。
2、全局索引(global index)
- Global Index是默认的索引格式,创建全局索引时,会在HBase中建立一张新表。也就是说索引数据和数据表是存放在不同的表中的,因此全局索引适用于多读少写的业务场景。
- 写数据的时候会消耗大量开销,因为索引表也要更新,而索引表是分布在不同的数据节点上的,跨节点的数据传输带来了较大的性能消耗。
- 在读数据的时候Phoenix会选择索引表来降低查询消耗的时间。
创建单个字段的全局索引
CREATEINDEX my_index ON my_table (my_col);
如果想查询的字段不是索引字段的话索引表不会被使用,也就是说不会带来查询速度的提升。
3、包含索引(covered index)
- 包含索引会将指定的列作为rowkey,包含的列作为普通列建立索引。
创建携带其他字段的全局索引
CREATEINDEX my_index ON my_table (v1) INCLUDE (v2);
4、本地索引(local index)
- Local Index适用于写操作频繁的场景。
- 在数据表中新建一个列族来存储索引数据。避免了在写操作的时候往不同服务器的索引表中写索引带来的额外开销。
CREATELOCALINDEX my_index ON my_table (my_column);
版权归原作者 ha_lydms 所有, 如有侵权,请联系我们删除。