0


使用hive查看orc文件 orcfiledump命令详解 异常处理(Failed to read ORC file)

列式存储以orc和parquet文件居多,现阶段hive数据存储的主流格式是orc,然后结合presto(目前对orc的支持好于parquet)做一些即席查询。hive数据文件是直接存储在hdfs上,但是hadoop貌似没有提供直接查看文本的命令,好在hive提供了支持。

文章目录


一、ORC文件查看

1. 命令帮助: hive --service orcfiledump --help
$ hive --service orcfiledump --help
usage ./hive orcfiledump [-h][-j][-p][-t][-d][-r <col_ids>][--recover][--skip-dump][--backup-path <new-path>]<path_to_orc_file_or_directory>

  --json (-j)                 Print metadata in JSON format
  --pretty (-p)               Pretty print json metadata output
  --timezone (-t)             Print writer's time zone
  --data (-d)                 Should the data be printed
  --rowindex (-r)<col_ids> Comma separated list of column ids forwhich row index should be printed
  --recover                   Recover corrupted orc files generated by streaming
  --skip-dump                 Used along with --recover to directly recover files without dumping
  --backup-path <new_path>  Specify a backup path to store the corrupted files (default: /tmp)
  --help (-h)                 Print help message
# (-[a-z])里的内容为缩写,与前面的--xx等价,使用起来更加方便# --json --pretty都用于metadata信息的展示,后者对输出的json进行了格式化# --data 可用于数据预览
2. 数据预览演示
hive --service orcfiledump -d /warehouse/tablespace/managed/hive/ads.db/xxx/dw=2021-07-05 |tail

数据预览

① 建议挑选较小的文件进行测试
②文件实在很大建议使用tail,使用head在输出指定的行数后会报一堆的异常信息

head异常信息

二、ORC文件修复

今天使用presto查hive数据的时候报了如下异常

Query 20230313_083619_19104_9jvmr failed: Failed to read ORC file: hdfs://DATALAKE/warehouse/tablespace/managed/hive/dim.db/xxx/dw=2023-03-06/000065_0

但是从hdfs上看文件是存在的,也有大小,然后尝试了下修复命令

hive --service orcfiledump  --recover /warehouse/tablespace/managed/hive/dim.db/xxx/dw=2023-03-06/000065_0
修复成功

修复成功

(建议先备份文件)

暂未发现异常,大家如有遇到orc fail这种情况可以尝试下

标签: hive 大数据 hadoop

本文转载自: https://blog.csdn.net/sinat_25207217/article/details/129498400
版权归原作者 ykn_2233 所有, 如有侵权,请联系我们删除。

“使用hive查看orc文件 orcfiledump命令详解 异常处理(Failed to read ORC file)”的评论:

还没有评论