0


Hive学习:Hive导入字段带逗号和换行符的CSV文件

Hive Handler Csv

一、字段带逗号

100,"600,000,000.00",李世民

比如上面这行数据,字段"600,000,000,00"带多个逗号,这个可以用hive中内置的语句来解决,使用OpenCSVSerde来解析CSV格式的数据,并指定了CSV文件中使用的分隔符、引号字符和转义字符

row format serde 'org.apache.hadoop.hive.serde2.OpenCSVSerde'with serdeproperties ('separatorChar'=',','quoteChar'='\"','escapeChar'='\\')
  • ‘separatorChar’ = ‘,’:指定CSV文件中使用的分隔符为逗号(,)
  • ‘quoteChar’ = ‘"’:指定CSV文件中使用的引号字符为双引号(")
  • ‘escapeChar’ = ‘\’:指定CSV文件中使用的转义字符为反斜杠(\)

这段代码表示分隔符为逗号,""中间的逗号不进行处理

二、字段带换行符

Name,Age,Address
Alice,25,"123 Main St.
Apt. 456"
Bob,30,"789 Oak St."

比如上面这段数据,本来是两条数据,但第一条数据第三个字段中间多了个换行符,在load data进hive的时候就变成了三条数据
网上找了很久,没有看到hive能直接处理这种字段中间带换行符的方式,所以只能对csv文件进行预处理
1、用shell脚本sed命令正则表达式匹配替换""中间的换行符
2、用其它语言脚本处理csv文件替换换行符

#!/usr/bin/python# -*- coding:utf-8 -*-#处理csv文件中换行符等特殊字符(\r\n,\n,\r,\\)#python csv_handler.py filepathimport os
import sys
import csv
import codecs
import time
 
filename = sys.argv[1]print(time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()),'[', filename.encode('unicode_escape').decode(),']开始处理')withopen(filename,'r')as srcFile,open(filename +'.tmp','w')as dstFile:#读取csv文件的每一行
    fileReader = csv.reader(srcFile)
    fileWriter = csv.writer(dstFile, quoting=csv.QUOTE_ALL)for d inlist(fileReader):for ii,dd inenumerate(d):if dd.find('\r\n')!=-1:
                dd = dd.replace('\r\n',' ')if dd.find('\n')!=-1:
                dd = dd.replace('\n',' ')if dd.find('\r')!=-1:
                dd = dd.replace('\r',' ')if dd.find('\\')!=-1:
                dd = dd.replace('\\','')
            d[ii]= dd
        fileWriter.writerow(d)
 
    dstFile.close()
    srcFile.close()#删除原文件,.tmp文件重命名为原文件
os.remove(filename)
os.rename(filename +'.tmp', filename)print(time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()),'[', filename.encode('unicode_escape').decode(),']处理完成')

三、字段带逗号和换行符

  • 直接把上面两种结合起来就可以了,建表使用字段带逗号那里的方式,然后预处理CSV文件,最后直接load data即可
标签: hive 学习 hadoop

本文转载自: https://blog.csdn.net/nzbing/article/details/131431606
版权归原作者 我爱夜来香A 所有, 如有侵权,请联系我们删除。

“Hive学习:Hive导入字段带逗号和换行符的CSV文件”的评论:

还没有评论