前面,我们已经在虚拟机中安装搭建了mysql,接下来我们将在虚拟机中安装hive。Linux系统下虚拟机中安装mysql的详细教程-CSDN博客
一、安装hive压缩包
1、启动虚拟机
①打开VMware、MobaXterm,启动虚拟机集群;
②上传hive的tar压缩包至linux系统下目录(仍然为单节点安装,同样在第一台虚拟机上安装);
2、安装hive
①进入hive压缩包所在目录:
cd /opt/install_packages/
②解压到指定目录:
tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /opt/softs/
③修改压缩包名称:
→进入指定目录: cd /opt/softs/
→重命名: mv apache-hive-3.1.2-bin/ hive3.1.2
3、配置环境变量
① 进入目录: cd hive3.1.2/
②编辑配置文件:
→打开文件: vim /etc/profile
→点击i键进入编辑模式,在文件末尾添加如下代码:
#HIVE_HOME
export HIVE_HOME=/opt/softs/hive3.1.2
export PATH=$PATH:$HIVE_HOME/bin
→点击esc键,输入 :wq! 后退出文件;
→source一下,使修改生效: source /etc/profile
→打印一下,确认配置正确: echo $HIVE_HOME
二、解决jar包问题
1、上传mysql-connector驱动jar包
①上传jar包至/lib目录下,如图所示:
2、解决日志jar包冲突
①进入lib目录: cd lib/
②改名解决jar包引起的日志冲突,效果如图:
mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar.bak
3、解决 guawa jar包版本太高的问题:
①给低版本jar包重命名:
→右键当前窗口,点击Dumplicate tab选项,复制出一个新的bigdata112窗口;
→在新窗口中,进入目录:
cd /opt/softs/hadoop3.1.3/share/hadoop/common/lib/
→输入 pwd ,复制保存好当前路径备用: /opt/softs/hadoop3.1.3/share/hadoop/common/lib
转到最初的bigdata112窗口:
→重命名guawa包,报错如图所示:
mv guava-19.0.jar guava-19.0.jar.bak
→手动输入命令后,成功重命名,输入 ll 查看:
②转到新建的bigdata112窗口:
→复制高版本的guava包到指定目录下: cp guava-27.0-jre.jar /opt/softs/hive3.1.2/lib/
→可回到原本窗口,输入 ll 进行查看是否复制成功。
三、修改hive的配置文件
1、修改hive-site.xml文件
①下载配置文件压缩包,解压之后双击打开hive-site.xml文件,进行如下修改:
②回到原本窗口,上传文件至conf目录下。
2、修改hadoop的core-site.xml配置文件
①先打开hive的core-site.xml文件,复制文件内容:
<!-- 安装hive时 在hadoop中core-site.xml中添加如下配置 -->
<!-- 从任何主机登录的root用户可以伪装成一个属于任何group的用户 -->
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
②进入指定目录:
cd /opt/softs/hadoop3.1.3/etc/hadoop/
③进入core-site.xml文件: vim core-site.xml
④点击i进入编辑模式,在</configuration>标签前
⑤按esc键,输入:wq!后退出文件;
⑥传递该文件至bigdata113、114,成功如图所示:
scp core-site.xml root@bigdata113:/opt/softs/hadoop3.1.3/etc/hadoop/
scp core-site.xml root@bigdata114:/opt/softs/hadoop3.1.3/etc/hadoop/
⑦在bigdata113、114输入命令检查,如图所示:
cat /opt/softs/hadoop3.1.3/etc/hadoop/core-site.xml
3、启动hdfs
①进入指定目录: cd /opt/softs/hadoop3.1.3/sbin
②在三台虚拟机上启动hdfs,均需输入 start-dfs.sh
③输入jps,检查节点是否正确启动
4、hive初始化元数据库
①检查元数据库状态: systemctl status mysqld
②初始化元数据库,成功如图所示:
schematool -dbType mysql -initSchema
出现hive数据库和许多表
③输入 hive 启动hive,成功如图所示,输入quit或按CTRL+C键退出:
补充:如何查看hive日志?
① 进入指定目录:cd /tmp/root/
② 查看日志: tail -500f hive.log 如图所示即为日志,按CTRL+C键即可退出:
Hive的日志
至此,linux上Hive已成功搭建。
版权归原作者 Right28 所有, 如有侵权,请联系我们删除。