0


Hadoop生态圈框架部署 伪集群版(七)- Hive部署

文章目录


前言

随着大数据技术的不断发展,数据处理和分析的需求日益增长。Apache Hive作为基于Hadoop的一个数据仓库工具,能够极大地简化对大规模数据集的查询和管理过程。它允许用户使用类似于SQL的HiveQL语言查询数据,这使得那些熟悉关系型数据库管理系统(RDBMS)的开发者可以轻松地转移到大数据平台上来。

本指南旨在为想要在Linux环境中手动部署和配置Apache Hive 3.1.3的读者提供一个详尽的操作步骤集合。我们将从下载安装包开始,一直到成功启动Hive服务,并确保其能够稳定运行。


一、Hive部署(手动部署)

1. 下载Hive

执行如下命令下载hive的安装包apache-hive-3.1.3-bin.tar.gz到

/export/software

目录。

wget https://repo.huaweicloud.com/apache/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz -P /export/software

在这里插入图片描述

也可以点击此连接下载到windows,再上传到Linux的/export/software目录。

2. 解压Hive安装包

2.1 解压

将Hive安装包通过解压方式安装至

/export/servers

目录。

tar-zxvf /export/software/apache-hive-3.1.3-bin.tar.gz -C /export/servers/

解压完成如下图所示。

在这里插入图片描述

2.2 重命名

执行如下命令将apache-hive-3.1.3-bin重命名为hive-3.1.3。

mv /export/servers/apache-hive-3.1.3-bin /export/servers/hive-3.1.3

在这里插入图片描述

2.3 解决冲突

2.3.1 解决guava冲突

如下图所示,hadoop中的guava与hive中的guava版本不一致,会产生冲突,需要把hive的guava更换为hadoop的guava高版本。

rm-f /export/servers/hive-3.1.3/lib/guava-19.0.jar
cp /export/servers/hadoop-3.3.0/share/hadoop/common/lib/guava-27.0-jre.jar /export/servers/hive-3.1.3/lib

在这里插入图片描述

2.3.2 解决SLF4J冲突

执行如下命令解决slf4j冲突问题。

rm-f /export/servers/hive-3.1.3/lib/log4j-slf4j-impl-2.17.1.jar

在这里插入图片描述

3. 配置Hive

3.1 配置Hive环境变量

执行如下命令设置Hive环境变量,加载系统环境变量配置文件,并查看环境变量是否配置成功。

echo>> /etc/profile
echo'export HIVE_HOME=/export/servers/hive-3.1.3'>> /etc/profile
echo'export PATH=$PATH:$HIVE_HOME/bin'>> /etc/profile
source /etc/profile
echo$HIVE_HOME

在这里插入图片描述

3.2 修改 hive-site.xml 配置文件

使用cat命令把配置内容重定向并写入到

/export/servers/hive-3.1.3/conf/hive-site.xml

文件。

cat>/export/servers/hive-3.1.3/conf/hive-site.xml <<EOF
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <!-- 配置JDO(Java Data Objects)选项,指定Hive元数据存储的数据库连接URL。这里使用的是MySQL数据库,并且如果数据库不存在则自动创建。 -->
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://hadoop:3306/hive?createDatabaseIfNotExist=true</value>
    </property>
    <!-- 指定用于连接数据库的JDBC驱动类名 -->
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.cj.jdbc.Driver</value>
    </property>
    <!-- 数据库连接用户名 -->
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <!-- 数据库连接密码 -->
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>123456</value>
    </property>
    <!-- 指定Hive元数据仓库在HDFS上目录的位置 -->
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>
</configuration>
EOF

在这里插入图片描述

3.3 配置MySQL驱动包

执行如下命令下载MySQL驱动包到

/export/servers/hive-3.1.3/lib

目录下。

wget https://repo1.maven.org/maven2/mysql/mysql-connector-java/8.0.30/mysql-connector-java-8.0.30.jar -P /export/servers/hive-3.1.3/lib/

在这里插入图片描述

4. 初始化MySQL上的存储hive元数据的数据库

执行如下命令初始化MySQL上的存储hive元数据的数据库。

schematool -initSchema-dbType mysql

在这里插入图片描述

初始化完成如下图所示。

在这里插入图片描述

5. 进入Hive客户端

在访问Hive客户端之前,由于Hive完全依赖于Hadoop集群,因此需要先启动Hadoop集群。

start-all.sh

在这里插入图片描述

执行如下命令在本地进入Hive客户端。

hive

在这里插入图片描述
在这里插入图片描述

退出Hive客户端。可以使用

exit;

命令或者按快捷键

Ctrl+c

退出。

exit;

在这里插入图片描述

6. 设置远程连接

6.1 启动MetaStore服务

执行如下命令后台启动MetaStore服务,并指定日志输出位置。

mkdir-p /export/servers/hive-3.1.3/logs
nohup hive --service metastore > /export/servers/hive-3.1.3/logs/metastore.log 2>&1&

6.2 启动HiveServer2服务

执行如下命令后台启动HiveServer2服务,并指定日志输出位置。

nohup hive --service hiveserver2 > /export/servers/hive-3.1.3/logs/hiveserver2.log 2>&1&

在这里插入图片描述

可以使用如下命令查看启动后的MetaStore服务进程和HiveServer2服务进程,此时如果要停止对应服务,可以使用kill命令杀死对应进程。

ps-ef|grep hive

在这里插入图片描述

6.3 进入Hive客户端

执行如下命令远程进入Hive客户端。

beeline -u jdbc:hive2://hadoop:10000 -n root
  • **参数 -u**:指定HiveServer2服务的JDBC URL。- jdbc:hive2://hadoop3:10000 中: - hadoop3 是运行HiveServer2服务的服务器主机名。- 10000 是HiveServer2服务默认使用的端口号。
  • **参数 -n**:指定连接HiveServer2服务时使用的用户名。- root 是用户名,该用户必须具有操作HDFS的适当权限。

在这里插入图片描述

如果要退出hive客户端,可以使用按快捷键

Ctrl+c

退出客户端。


注意

每当系统重启后,为了确保Hive能够正常工作,首先需要执行如下命令启动Hadoop伪集群。

start-all.sh

如果还需要支持远程连接功能,则必须执行如下命令启动Hive的MetaStore服务和HiveServer2服务。

mkdir-p /export/servers/hive-3.1.3/logs
nohup hive --service metastore > /export/servers/hive-3.1.3/logs/metastore.log 2>&1&nohup hive --service hiveserver2 > /export/servers/hive-3.1.3/logs/hiveserver2.log 2>&1&
标签: hadoop hive 大数据

本文转载自: https://blog.csdn.net/zcs2312852665/article/details/144315834
版权归原作者 BigDataMagician 所有, 如有侵权,请联系我们删除。

“Hadoop生态圈框架部署 伪集群版(七)- Hive部署”的评论:

还没有评论