0


Hive元数据信息获取

  • 如何获取Hive库表字段分区信息

1 获取Hive的所有数据库信息

如果注释字段中文乱码,则需要修改字符集(正常情况都需要修改)。

SELECT`NAME` NAME,
    ANY_VALUE (`DESC`)COMMENT,
    ANY_VALUE (`DB_LOCATION_URI`) path 
FROM`DBS`GROUPBY`NAME

2 根据数据库名获取数据表信息

**

path

字段对应着Hive表在Hdfs的路径,在做数据同步的时候很重要(比如使用

dataX

进行数据同步,当然手写JSON也是很累的,但是还好有datax-web开源项目),

type

字段可以看出表的储存格式(目前已知Hive可以直接加载Hdfs目录中的

text格式

parquet格式

文件)。**

SELECT
    tb.TBL_NAME NAME,
    tp.PARAM_VALUE COMMENT,
    sds.INPUT_FORMAT type,
    sds.LOCATION path 
FROM
    DBS db
    LEFTJOIN TBLS tb ON tb.DB_ID = db.DB_ID
    LEFTJOIN TABLE_PARAMS tp ON tp.TBL_ID = tb.TBL_ID 
    AND tp.PARAM_KEY ='comment'LEFTJOIN SDS sds ON sds.SD_ID = tb.SD_ID 
WHERE
    db.`NAME`='test'ORDERBY
    tb.TBL_NAME

3 根据数据库名、数据表名获取表字段信息

此处查询结果只会展示表的字段信息(分区字段不会在该查询语句的结果中显示)。

SELECT
    col.COLUMN_NAME NAME,
    col.TYPE_NAME type,
    col.`COMMENT`COMMENT,
    col.INTEGER_IDX position 
FROM
    DBS db
    LEFTJOIN TBLS tb ON tb.DB_ID = db.DB_ID
    LEFTJOIN SDS sds ON sds.SD_ID = tb.SD_ID
    LEFTJOIN COLUMNS_V2 col ON sds.CD_ID = col.CD_ID 
WHERE
    db.NAME ='test'AND tb.TBL_NAME ='person'ORDERBY
    col.INTEGER_IDX

4 根据数据库名、数据表名获取表分区信息

至于分区字段为什么单独拿出来不合到表字段里,是因为每个分区对应着一个Hdfs目录。分区有目录,字段没有啊怎么能放到一起。(在使用datax同步分区数据时会将分区数据同步到分区表指定的分区目录中)。

4.1 查看分区表分区字段信息

创建一个分区表用年、月、日三级目录进行分区:

createtableifnotexists person_partition(
    name string comment'姓名',
    age  intcomment'年龄')comment'测试表'
partitioned by(year string comment'年',month string comment'月',day string comment'日')
stored as parquet;
SELECT
    pk.PKEY_NAME NAME,
    pk.PKEY_TYPE type,
    pk.PKEY_COMMENT COMMENT,
    pk.INTEGER_IDX position 
FROM
    DBS db
    LEFTJOIN TBLS tb ON tb.DB_ID = db.DB_ID
    LEFTJOIN PARTITION_KEYS pk ON pk.TBL_ID = tb.TBL_ID 
WHERE
    db.`NAME`='test'AND tb.TBL_NAME ='person_partition'ORDERBY
    pk.INTEGER_IDX

4.2 查看分区表的分区信息

当前表中还没有分区,先来加几个分区:

  • 添加分区【同时会在Hdfs中创建目录】:alter table [table] add partition(col,..);
  • 删除分区【同时会在Hdfs中删除目录】:alter table [table] drop partition(col,..);
altertable person_partition addifnotexistspartition(year=2015,month=12,day=26);altertable person_partition addifnotexistspartition(year=2016,month=12,day=26);altertable person_partition addifnotexistspartition(year=2017,month=12,day=26);altertable person_partition addifnotexistspartition(year=2018,month=12,day=26);altertable person_partition addifnotexistspartition(year=2019,month=12,day=26);altertable person_partition addifnotexistspartition(year=2020,month=12,day=26);

接下来查询下分区表的分区信息,看看每个分区对应的Hdfs路径(使用datax数据同步时将会使用到):

SELECT
    db.`NAME` dbName,
    tb.TBL_NAME tbName,
    part.PART_NAME partName,
    sds.LOCATION path 
FROM`PARTITIONS` part
    LEFTJOIN TBLS tb ON tb.TBL_ID = part.TBL_ID
    LEFTJOIN DBS db ON db.DB_ID = tb.DB_ID
    LEFTJOIN SDS sds ON sds.SD_ID = part.SD_ID 
WHERE
    db.`NAME`='test'AND tb.TBL_NAME ='person_partition'

附录

A.1 Hive元数据中文乱码

hive配置表的元数据放到mysql中存储,mysql中默认表被创建的时候用的是默认的字符集(latin1),所以会出现中文乱码。

解决方案:

(1)在Hive元数据存储的Mysql数据库(MetaStore)中,执行以下SQL:

#修改字段注释字符集altertable COLUMNS_V2 modifycolumnCOMMENTvarchar(256)characterset utf8;#修改表注释字符集altertable TABLE_PARAMS modifycolumn PARAM_VALUE varchar(20000)characterset utf8;#修改分区参数,支持分区建用中文表示altertable PARTITION_PARAMS modifycolumn PARAM_VALUE varchar(20000)characterset utf8;altertable PARTITION_KEYS modifycolumn PKEY_COMMENT varchar(20000)characterset utf8;#修改索引名注释,支持中文表示altertable INDEX_PARAMS modifycolumn PARAM_VALUE varchar(4000)characterset utf8;#修改视图,支持视图中文ALTERTABLE TBLS modifyCOLUMN VIEW_EXPANDED_TEXT mediumtextCHARACTERSET utf8;ALTERTABLE TBLS modifyCOLUMN VIEW_ORIGINAL_TEXT mediumtextCHARACTERSET utf8;

(2)修改hive-site.xml中Hive读取元数据的编码(注意原先是否配置过)

<property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value></property>

注意的是,之前创建的表的元数据已经损坏了,所以无法恢复中文乱码,只能重新创建表

标签: hive hadoop 大数据

本文转载自: https://blog.csdn.net/An1090239782/article/details/129356658
版权归原作者 爱是与世界平行 所有, 如有侵权,请联系我们删除。

“Hive元数据信息获取”的评论:

还没有评论