0


Linux系统下虚拟机中安装(搭建)hive的详细教程

前面,我们已经在虚拟机中安装搭建了mysql,接下来我们将在虚拟机中安装hive。Linux系统下虚拟机中安装mysql的详细教程-CSDN博客

一、安装hive压缩包

1、启动虚拟机

①打开VMware、MobaXterm,启动虚拟机集群;

②上传hive的tar压缩包至linux系统下目录(仍然为单节点安装,同样在第一台虚拟机上安装);

2、安装hive

①进入hive压缩包所在目录:

 cd /opt/install_packages/

②解压到指定目录:

tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /opt/softs/

③修改压缩包名称:

→进入指定目录: cd /opt/softs/

→重命名: mv apache-hive-3.1.2-bin/ hive3.1.2

3、配置环境变量

① 进入目录: cd hive3.1.2/

②编辑配置文件:

→打开文件: vim /etc/profile

→点击i键进入编辑模式,在文件末尾添加如下代码:

#HIVE_HOME
export HIVE_HOME=/opt/softs/hive3.1.2
export PATH=$PATH:$HIVE_HOME/bin

→点击esc键,输入 :wq! 后退出文件;

→source一下,使修改生效: source /etc/profile
→打印一下,确认配置正确: echo $HIVE_HOME

二、解决jar包问题

1、上传mysql-connector驱动jar包

①上传jar包至/lib目录下,如图所示:

2、解决日志jar包冲突

①进入lib目录: cd lib/

②改名解决jar包引起的日志冲突,效果如图:

mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar.bak

3、解决 guawa jar包版本太高的问题:

①给低版本jar包重命名:

→右键当前窗口,点击Dumplicate tab选项,复制出一个新的bigdata112窗口;

→在新窗口中,进入目录:

cd /opt/softs/hadoop3.1.3/share/hadoop/common/lib/

→输入 pwd ,复制保存好当前路径备用: /opt/softs/hadoop3.1.3/share/hadoop/common/lib

转到最初的bigdata112窗口:

→重命名guawa包,报错如图所示:

mv guava-19.0.jar guava-19.0.jar.bak

→手动输入命令后,成功重命名,输入 ll 查看:

②转到新建的bigdata112窗口:

→复制高版本的guava包到指定目录下: cp guava-27.0-jre.jar /opt/softs/hive3.1.2/lib/

→可回到原本窗口,输入 ll 进行查看是否复制成功。

三、修改hive的配置文件

1、修改hive-site.xml文件

①下载配置文件压缩包,解压之后双击打开hive-site.xml文件,进行如下修改:

回到原本窗口,上传文件至conf目录下。

2、修改hadoop的core-site.xml配置文件

①先打开hive的core-site.xml文件,复制文件内容:

<!-- 安装hive时 在hadoop中core-site.xml中添加如下配置 -->
    <!-- 从任何主机登录的root用户可以伪装成一个属于任何group的用户 -->
    <property>
        <name>hadoop.proxyuser.root.hosts</name>
        <value>*</value>
    </property>
    <property>
        <name>hadoop.proxyuser.root.groups</name>
        <value>*</value>
    </property>

②进入指定目录:

cd /opt/softs/hadoop3.1.3/etc/hadoop/

③进入core-site.xml文件: vim core-site.xml

④点击i进入编辑模式,在</configuration>标签前

⑤按esc键,输入:wq!后退出文件;

⑥传递该文件至bigdata113、114,成功如图所示:

scp core-site.xml root@bigdata113:/opt/softs/hadoop3.1.3/etc/hadoop/
scp core-site.xml root@bigdata114:/opt/softs/hadoop3.1.3/etc/hadoop/

⑦在bigdata113、114输入命令检查,如图所示:

cat /opt/softs/hadoop3.1.3/etc/hadoop/core-site.xml

3、启动hdfs

①进入指定目录: cd /opt/softs/hadoop3.1.3/sbin

②在三台虚拟机上启动hdfs,均需输入 start-dfs.sh

③输入jps,检查节点是否正确启动

4、hive初始化元数据库

①检查元数据库状态: systemctl status mysqld

②初始化元数据库,成功如图所示:

schematool -dbType mysql -initSchema



出现hive数据库和许多表

③输入 hive 启动hive,成功如图所示,输入quit或按CTRL+C键退出:

补充:如何查看hive日志?

① 进入指定目录:cd /tmp/root/

② 查看日志: tail -500f hive.log 如图所示即为日志,按CTRL+C键即可退出:

Hive的日志

至此,linux上Hive已成功搭建。

标签: linux hive 大数据

本文转载自: https://blog.csdn.net/m0_64006904/article/details/140225481
版权归原作者 Right28 所有, 如有侵权,请联系我们删除。

“Linux系统下虚拟机中安装(搭建)hive的详细教程”的评论:

还没有评论