0


Linux+centOS Hadoop——Hive的配置(自学记录)

本文章只记录了Hive的安装及配置,便于以后参考。此前已经完成了HDFS和YARN的配置,以及MYSQL的安装,现在的工作都是在此基础上进行的。

一、Hive的安装

1.下载链接:

通过网盘分享的文件:apache-hive-2.3.9-bin.tar.gz
链接: https://pan.baidu.com/s/1pbUjVBTHlxD6iFJADlgmuw?pwd=xmsn 提取码: xmsn

2.解压缩

tar -zxvf apache-hive-2.3.9-bin

ln -s apache-hive-2.3.9-bin hive   # 建立软链接

二、环境变量配置

进入/etc/profile配置文件中

vim /etc/profile

配置Hive的环境变量

export OPT=/home/hadoop/app   #这里的OPT是自己的存放文件夹的路径 
export HIVE_HOME=$OPT/hive
export PATH=$PATH:$HIVE_HOME/bin

使配置生效

source /etc/profile

三、文件配置

进入Hive的conf文件夹,编辑hive-site.xml配置文件

cd conf

cp hive-default.xml.template hive-site.xml   # Hive的配置文件

vim hive-site.xml 

在hive-default.xml.template的基础上修改下面的配置

<configuration>
        <property>
        <name>hive.metastore.warehouse.dir</name>
         <value>/home/hadoop/app/hive/iotmp</value>
         </property>
         <property>
         <name>hive.exec.scratchdir</name>
         <value>/home/hadoop/app/hive/iotmp</value>
        </property>
        <property>
        <name>hive.exec.local.scratchdir</name>
        <value>/home/hadoop/app/hive/iotmp</value>
        </property>
        <property>
         <name>hive.querylog.location</name>
         <value>/home/hadoop/app/hive/iotmp</value>
         </property>
        <property>
        <name>hive.downloaded.resources.dir</name>
        <value>/home/hadoop/app/hive/iotmp</value>
        </property>
         <property>
         <name>javax.jdo.option.ConnectionURL</name>
         <value>jdbc:mysql://hadoop01:3306/hive?characterEncoding=UTF-8
         </value>
         </property>
         <property>
         <name>javax.jdo.option.ConnectionDriverName</name>
         <value>com.mysql.cj.jdbc.Driver</value>
         </property>
         <property>
         <name>javax.jdo.option.ConnectionUserName</name>
         <value>hive</value>
         <!-- 数据库名称 -->
         </property>
         <property>
         <name>javax.jdo.option.ConnectionPassword</name>
         <value>123456</value>
         <!-- 数据库密码 -->
         </property>
</configuration>

四、启动Hadoop

start-all.sh

使用jps查看启动的服务

执行初始化命令

bin/schematool -dbType mysql -initSchema

启动hive(在hive安装路径下)

bin/hive

五、解决包冲突问题

使用bin/hive启动hive会话时会出现“SLF4J: Class path contains multiple SLF4J bindings”的错误,这是由于在类路径中存在多个SLF4J绑定

  1. log4j-slf4j-impl-2.6.2.jar
    
    /home/hadoop/app/apache-hive-2.3.9-bin/lib/
    
2.slf4j-reload4j-1.7.36.jar

/home/hadoop/app/hadoop-3.4.0/share/hadoop/common/lib/
此时,移除一个绑定解决该问题,这里我选择移除第二个
rm /home/hadoop/app/hadoop-3.4.0/share/hadoop/common/lib/slf4j-reload4j-1.7.36.jar

wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==

​编辑

移除成功,再次启动Hive,成功

到此,Hive安装配置成功。

标签: linux hadoop centos

本文转载自: https://blog.csdn.net/m0_75149094/article/details/142640246
版权归原作者 m0_75149094 所有, 如有侵权,请联系我们删除。

“Linux+centOS Hadoop——Hive的配置(自学记录)”的评论:

还没有评论