0


第二章 hive环境配置

2.1.Hive 安装地址

1Hive 官网地址

http://hive.apache.org /

2)文档查看地址****

https: //cwiki.apache.org /confluence/display/Hive/G ettingStarted

3)下载地址****

http://archive.apache.org /dist/hive/

4github 地址

https: //github.com/apache/hive

2.2 Hive 安装部署

2.2.1** 安装 **Hive

1)把**** apache-hive-3.1.2-bin.tar.gz 上传到 linux /opt/software**** 目录下
2**)解压 apache-hive-3.1.2-bin.tar.gz **/opt/module/****目录下面

[atguigu@hadoop102 software]$ tar -zxvf /opt/software/apache-hive-3.1.2- bin.tar.gz -C /opt/module/

3**)修改 apache-hive-3.1.2-bin.tar.gz 的名称为 **hive

[atguigu@hadoop102 software]$ mv /opt/module/apache-hive-3.1.2-bin/

/opt/module/hive

4)修改/etc/profile.d/my_env.sh****,添加环境变量

[atguigu@hadoop102 software]$ sudo vim /etc/profile.d/my_env.sh

5)添加内容****

#HIVE_HOME

export HIVE_HOME=/opt/module/hive

export PATH=$PATH:$HIVE_HOME/bin

6**)解决日志 Jar **包冲突

[atguigu@hadoop102 software]$ mv $HIVE_HOME/lib/log4j-slf4j-impl- 2.10.0.jar $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.bak

7****)初始化元数据库

[atguigu@hadoop102 software]$ mv $HIVE_HOME/lib/log4j-slf4j-impl- 2.10.0.jar $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.bak

2.2.2 启动并使用 Hive

1)启动**** Hive

[atguigu@hadoop102 hive]$ bin/hive

****** 2**)使用 Hive
3**)在 CRT 窗口中开启另一个窗口开启 Hive,在/tmp/atguigu 目录下监控 hive.log **文件

Caused by: ERROR XSDB6: Another instance of Derby may have already booted the database /opt/module/hive/metastore_db.

at org.apache.derby.iapi.error.StandardException.newException(Unknown Source)

at org.apache.derby.iapi.error.StandardException.newException(Unknown

Source)

at org.apache.derby.impl.store.raw.data.BaseDataFileFactory.privGetJBMSLockO nDB(Unknown Source)

at org.apache.derby.impl.store.raw.data.BaseDataFileFactory.run(Unknown Source)

...

原因在于 Hive 默认使用的元数据库为 derby,开启 Hive 之后就会占用元数据库,且不与 其他客户端共享数据,所以我们需要将 Hive 的元数据地址改为 MySQL

2.3MySQL 安装

1)检查当前系统是否安装过**** MySQL

[atguigu@hadoop102 ~]$ rpm -qa|grep mariadb mariadb-libs-5.5.56-2.el7.x86_64

//如果存在通过如下命令卸载

[atguigu @hadoop102 ~]$ sudo rpm -e --nodeps mariadb-libs

**** 2**)将 MySQL 安装包拷贝到/opt/software **目录下

[atguigu @hadoop102 software]# ll

总用量 528384

-rw-r--r--. 1 root root 609556480 3 月 21 15:41 mysql-5.7.28- 1.el7.x86_64.rpm-bundle.tar

3**)解压 ******MySQL ****安装包

[atguigu @hadoop102 software]# tar -xf mysql-5.7.28-1.el7.x86_64.rpm- bundle.tar

4**)在安装目录下执行 rpm **安装

[atguigu @hadoop102 software]$

sudo rpm -ivh mysql-community-common-5.7.28-1.el7.x86_64.rpm sudo rpm -ivh mysql-community-libs-5.7.28-1.el7.x86_64.rpm

sudo rpm -ivh mysql-community-libs-compat-5.7.28-1.el7.x86_64.rpm sudo rpm -ivh mysql-community-client-5.7.28-1.el7.x86_64.rpm

sudo rpm -ivh mysql-community-server-5.7.28-1.el7.x86_64.rpm

注意:按照顺序依次执行

如果 Linux 是最小化安装的,在安装 mysql-community-server-5.7.28-1.el7.x86_64.rpm 时 可能会出现如下错误

[atguigu@hadoop102 software]$ sudo rpm -ivh mysql-community-server- 5.7.28-1.el7.x86_64.rpm

警告:mysql-community-server-5.7.28-1.el7.x86_64.rpm: 头 V3 DSA/SHA1

Signature, 密钥 ID 5072e1f5: NOKEY

错误:依赖检测失败:

libaio.so.1()(64bit) 被 mysql-community-server-5.7.28-1.el7.x86_64

需要

libaio.so.1(LIBAIO_0.1)(64bit) 被 mysql-community-server-5.7.28- 1.el7.x86_64 需要

libaio.so.1(LIBAIO_0.4)(64bit) 被 mysql-community-server-5.7.28- 1.el7.x86_64 需要

通过 yum 安装缺少的依赖,然后重新安装 mysql-community-server-5.7.28-1.el7.x86_64 即可

[atguigu@hadoop102 software] yum install -y libaio

5)删除/etc/my.cnf****** 文件中 datadir 指向的目录下的所有内容,如果有内容的情况下:**** **查看 datadir 的值:

[mysqld] datadir=/var/lib/mysql

删除/var/lib/mysql 目录下的所有内容:

[atguigu @hadoop102 mysql]# cd /var/lib/mysql

[atguigu @hadoop102 mysql]# sudo rm -rf ./*//注意执行命令的位置

6)初始化数据库****

[atguigu @hadoop102 opt]$ sudo mysqld --initialize --user=mysql

7)查看临时生成的**** root 用户的密码

8)启动**** ******MySQL **服务

[atguigu @hadoop102 opt]$ sudo systemctl start mysqld

9)登录**** MySQL 数据库

[atguigu @hadoop102 opt]$ mysql -uroot -p Enter password: 输入临时生成的密码

登录成功.

10)必须先修改**** root 用户的密码**,**否则执行其他的操作会报错

mysql> set password = password("新密码");

11)修改**** mysql 库下的 user 表中的 root 用户允许任意 ip 连接

mysql> update mysql.user set host='%' where user='root'; mysql> flush privileges;

2.4 Hive** 元数据配置到 MySQL **

2.4.1 拷贝驱动

    将 MySQL 的 JDBC 驱动拷贝到 Hive 的 lib 目录下

**** ****[atguigu@hadoop102 software]$ cp /opt/software/mysql-connector-java- 5.1.37.jar $HIVE_HOME/lib

2.4.2 配置 Metastore MySQL

****** 1)在$HIVE_HOME/conf****** 目录下新建 hive-site.xml 文件

添加如下配置

<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>

</property> <property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.jdbc.Driver</value>

</property> <property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>root</value>

</property> <property>

<name>javax.jdo.option.ConnectionPassword</name>

<value>000000</value>

</property> <property>

<name>hive.metastore.schema.verification</name>

<value>false</value>

</property> <property>

<name>hive.metastore.event.db.notification.api.auth</name>

<value>false</value>

</property>

<value>hadoop102</value>

</property>

<name>hive.metastore.warehouse.dir</name>

<value>/user/hive/warehouse</value>

</property> </configuration>
****** 2)登陆****** MySQL

[atguigu@hadoop102 software]$ mysql -uroot -p000000

****** 3) 新建** Hive 元数据库

mysql> create database metastore;

mysql> quit;

**** 4)初始化** Hive **元数据库

[atguigu@hadoop102 software]$ schematool -initSchema -dbType mysql - verbose

2.4.3 再次启动** **Hive

1**)启动 **Hive

[atguigu@hadoop102 hive]$ bin/hive

2)使用**** Hive

hive> show databases;

hive> show tables;

hive> create table test (id int);

hive> insert into test values(1);

hive> select * from test;

3**)在 CRT 窗口中开启另一个窗口开启 **Hive

hive> show databases;

hive> show tables;

hive> select * from aa;

2.5** 使用元数据服务的方式访问 **Hive

1**)在 hive-site.xml **文件中添加如下配置信息
<property>

<name>hive.metastore.uris</name>

<value>thrift://hadoop102:9083</value>

</property>
2**)启动 **metastore

[atguigu@hadoop202 hive]$ hive --service metastore 2020-04-24 16:58:08: Starting Hive Metastore Server 注意: 启动后窗口不能再操作,需打开一个新的 shell 窗口做别的操作

3**)启动 **hive

[atguigu@hadoop202 hive]$ bin/hive

2.6 使用 JDBC 方式访问 Hive

1)在**** hive-site.xml 文件中添加如下配置信息

<property>

<name>hive.server2.thrift.bind.host</name>

<value>hadoop102</value>

</property> <property>

<name>hive.server2.thrift.port</name>

<value>10000</value>

</property>
2**)启动 **hiveserver2

[atguigu@hadoop102 hive]$ bin/hive --service hiveserver2

3)启动**** beeline 客户端(需要多等待一会)****

[atguigu@hadoop102 hive]$ bin/beeline -u jdbc:hive2://hadoop102:10000 -n atguigu

4****)看到如下界面

Connecting to jdbc:hive2://hadoop102:10000 Connected to: Apache Hive (version 3.1.2) Driver: Hive JDBC (version 3.1.2)

Transaction isolation: TRANSACTION_REPEATABLE_READ Beeline version 3.1.2 by Apache Hive

0: jdbc:hive2://hadoop102:10000>


本文转载自: https://blog.csdn.net/m0_73577749/article/details/136405562
版权归原作者 m0_73577749 所有, 如有侵权,请联系我们删除。

“第二章 hive环境配置”的评论:

还没有评论