0


Hive 整合 Spark 全教程 (Hive on Spark)

  1. [luanhao@Bigdata00 hadoop-3.1.3]$ pwd
  2. /opt/module/hadoop-3.1.3

​ (2)打开/etc/profile文件

  1. [luanhao@Bigdata00 hadoop-3.1.3]$ sudo vim /etc/profile
  2. profile文件末尾添加JDK路径:(shitf+g
  3. #HADOOP\_HOME
  4. export HADOOP_HOME=/opt/module/hadoop-3.1.3
  5. export PATH=$PATH:$HADOOP\_HOME/bin
  6. export PATH=$PATH:$HADOOP\_HOME/sbin

​ (3)刷新并查看是否配置成功

  1. [luanhao@Bigdata00 module]$ source /etc/profile
  2. [luanhao@Bigdata00 module]$ hadoop version
  3. Hadoop 3.1.3
  4. Source code repository https://gitbox.apache.org/repos/asf/hadoop.git -r ba631c436b806728f8ec2f54ab1e289526c90579
  5. Compiled by ztang on 2019-09-12T02:47Z
  6. Compiled with protoc 2.5.0
  7. From source with checksum ec785077c385118ac91aadde5ec9799
  8. This command was run using /opt/module/hadoop-3.1.3/share/hadoop/common/hadoop-common-3.1.3.jar
配置集群

1)核心配置文件

配置core-site.xml

  1. 文件内容如下:
  2. <?xml version="1.0" encoding="UTF-8"?>
  3. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  4. <configuration>
  5. <!-- 指定NameNode的地址 -->
  6. <property>
  7. <name>fs.defaultFS</name>
  8. <value>hdfs://Bigdata00:9820</value>
  9. </property>
  10. <!-- 指定hadoop数据的存储目录 -->
  11. <property>
  12. <name>hadoop.tmp.dir</name>
  13. <value>/opt/module/hadoop-3.1.3/data</value>
  14. </property>
  15. <!-- 配置HDFS网页登录使用的静态用户为luanhao -->
  16. <property>
  17. <name>hadoop.http.staticuser.user</name>
  18. <value>luanhao</value>
  19. </property>
  20. <!-- 配置该luanhao(superUser)允许通过代理访问的主机节点 -->
  21. <property>
  22. <name>hadoop.proxyuser.luanhao.hosts</name>
  23. <value>*</value>
  24. </property>
  25. <!-- 配置该luanhao(superUser)允许通过代理用户所属组 -->
  26. <property>
  27. <name>hadoop.proxyuser.luanhao.groups</name>
  28. <value>*</value>
  29. </property>
  30. <!-- 配置该luanhao(superUser)允许通过代理的用户-->
  31. <property>
  32. <name>hadoop.proxyuser.luanhao.groups</name>
  33. <value>*</value>
  34. </property>
  35. </configuration>

2)HDFS配置文件

配置hdfs-site.xml

  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <configuration>
  4. <!-- nn web端访问地址-->
  5. <property>
  6. <name>dfs.namenode.http-address</name>
  7. <value>Bigdata00:9870</value>
  8. </property>
  9. <!-- 2nn web端访问地址-->
  10. <property>
  11. <name>dfs.namenode.secondary.http-address</name>
  12. <value>Bigdata00:9868</value>
  13. </property>
  14. <!-- 测试环境指定HDFS副本的数量1 -->
  15. <property>
  16. <name>dfs.replication</name>
  17. <value>1</value>
  18. </property>
  19. </configuration>

3)YARN配置文件

配置yarn-site.xml

  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <configuration>
  4. <!-- 指定MR走shuffle -->
  5. <property>
  6. <name>yarn.nodemanager.aux-services</name>
  7. <value>mapreduce_shuffle</value>
  8. </property>
  9. <!-- 指定ResourceManager的地址-->
  10. <property>
  11. <name>yarn.resourcemanager.hostname</name>
  12. <value>Bigdata00</value>
  13. </property>
  14. <!-- 环境变量的继承 -->
  15. <property>
  16. <name>yarn.nodemanager.env-whitelist</name>
  17. <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
  18. </property>
  19. <!-- yarn容器允许分配的最大最小内存 -->
  20. <property>
  21. <name>yarn.scheduler.minimum-allocation-mb</name>
  22. <value>512</value>
  23. </property>
  24. <property>
  25. <name>yarn.scheduler.maximum-allocation-mb</name>
  26. <value>4096</value>
  27. </property>
  28. <!-- yarn容器允许管理的物理内存大小 -->
  29. <property>
  30. <name>yarn.nodemanager.resource.memory-mb</name>
  31. <value>4096</value>
  32. </property>
  33. <!-- 关闭yarn对物理内存和虚拟内存的限制检查 -->
  34. <property>
  35. <name>yarn.nodemanager.pmem-check-enabled</name>
  36. <value>false</value>
  37. </property>
  38. <property>
  39. <name>yarn.nodemanager.vmem-check-enabled</name>
  40. <value>false</value>
  41. </property>
  42. </configuration>

4)MapReduce配置文件

配置mapred-site.xml

  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <configuration>
  4. <!-- 指定MapReduce程序运行在Yarn上 -->
  5. <property>
  6. <name>mapreduce.framework.name</name>
  7. <value>yarn</value>
  8. </property>
  9. </configuration>

5)配置workers

  1. Bigdata00

6)配置hadoop-env.sh

  1. export JAVA_HOME=/opt/module/jdk1.8.0_212
配置历史服务器

为了查看程序的历史运行情况,需要配置一下历史服务器。具体配置步骤如下:

配置mapred-site.xml

  1. <!-- 历史服务器端地址 -->
  2. <property>
  3. <name>mapreduce.jobhistory.address</name>
  4. <value>Bigdata00:10020</value>
  5. </property>
  6. <!-- 历史服务器web端地址 -->
  7. <property>
  8. <name>mapreduce.jobhistory.webapp.address</name>
  9. <value>Bigdata00:19888</value>
  10. </property>
配置日志的聚集

日志聚集概念:应用运行完成以后,将程序运行日志信息上传到HDFS系统上。

日志聚集功能好处:可以方便的查看到程序运行详情,方便开发调试。

注意:开启日志聚集功能,需要重新启动NodeManager 、ResourceManager和HistoryManager。

开启日志聚集功能具体步骤如下:

配置yarn-site.xml

  1. <!-- 开启日志聚集功能 -->
  2. <property>
  3. <name>yarn.log-aggregation-enable</name>
  4. <value>true</value>
  5. </property>
  6. <!-- 设置日志聚集服务器地址 -->
  7. <property>
  8. <name>yarn.log.server.url</name>
  9. <value>http://Bigdata00:19888/jobhistory/logs</value>
  10. </property>
  11. <!-- 设置日志保留时间为7天 -->
  12. <property>
  13. <name>yarn.log-aggregation.retain-seconds</name>
  14. <value>604800</value>
  15. </property>
启动集群

(1)如果集群是第一次启动,需要在Bigdata00节点格式化NameNode(注意格式化之前,一定要先停止上次启动的所有namenode和datanode进程,然后再删除data和log数据)

  1. [luanhao@Bigdata00 hadoop-3.1.3]$ bin/hdfs namenode -format

(2)启动HDFS

  1. [luanhao@Bigdata00 hadoop-3.1.3]$ sbin/start-dfs.sh

(3)在配置了ResourceManager的节点启动YARN

  1. [luanhao@Bigdata00 hadoop-3.1.3]$ sbin/start-yarn.sh

(4)Web端查看HDFS的Web页面:http://bigdata00:9870

在这里插入图片描述

(5)Web端查看SecondaryNameNode :http://bigdata00:9868/status.html (单机模式下面什么都没有)

在这里插入图片描述

(6)Web端查看ResourceManager :http://bigdata00:8088/cluster

在这里插入图片描述

LZO压缩配置

1)将编译好后的 hadoop-lzo-0.4.20.jar 放入 hadoop-3.1.3/share/hadoop/common/

  1. [luanhao@Bigdata00 common]$ pwd
  2. /opt/module/hadoop-3.1.3/share/hadoop/common
  3. [luanhao@Bigdata00 common]$ ls
  4. hadoop-lzo-0.4.20.jar

2)core-site.xml 增加配置支持 LZO 压缩

  1. <configuration>
  2. <property>
  3. <name>io.compression.codecs</name>
  4. <value>
  5. org.apache.hadoop.io.compress.GzipCodec,
  6. org.apache.hadoop.io.compress.DefaultCodec,
  7. org.apache.hadoop.io.compress.BZip2Codec,
  8. org.apache.hadoop.io.compress.SnappyCodec,
  9. com.hadoop.compression.lzo.LzoCodec,
  10. com.hadoop.compression.lzo.LzopCodec
  11. </value>
  12. </property>
  13. <property>
  14. <name>io.compression.codec.lzo.class</name>
  15. <value>com.hadoop.compression.lzo.LzoCodec</value>
  16. </property>
  17. </configuration>
Hadoop 3.x 端口号 总结

Hadoop 3.x后,应用的端口有所调整,如下:
分类应用Haddop 2.xHaddop 3.xNNPortsNamenode80209820NNPortsNN HTTP UI500709870NNPortsNN HTTPS UI504709871SNN portsSNN HTTP500919869SNN portsSNN HTTP UI500909868DN portsDN IPC500209867DN portsDN500109866DN portsDN HTTP UI500759864DN portsNamenode504759865YARN portsYARN UI80888088

MySQL准备

1)卸载自带的 Mysql-libs(如果之前安装过 mysql,要全都卸载掉)

  1. [luanhao@Bigdata00 software]$ rpm -qa | grep -i -E mysql\|mariadb | xargs -n1 sudo rpm -e --nodeps

2)安装 mysql****依赖

  1. [luanhao@Bigdata00 software]$ sudo rpm -ivh 01_mysql-community-common-5.7.16-1.el7.x86_64.rpm
  2. [luanhao@Bigdata00 software]$ sudo rpm -ivh 02_mysql-community-libs-5.7.16-1.el7.x86_64.rpm
  3. [luanhao@Bigdata00 software]$ sudo rpm -ivh 03_mysql-community-libs-compat-5.7.16-1.el7.x86_64.rpm

3)安装 mysql-client

  1. [luanhao@Bigdata00 software]$ sudo rpm -ivh 04_mysql-community-client-5.7.16-1.el7.x86_64.rpm

4)安装 mysql-server

  1. [luanhao@Bigdata00 software]$ sudo rpm -ivh 05_mysql-community-server-5.7.16-1.el7.x86_64.rpm

5)启动 mysql

  1. [luanhao@Bigdata00 software]$ sudo systemctl start mysqld

6)查看 mysql****密码

  1. [luanhao@Bigdata00 software]$ sudo cat /var/log/mysqld.log | grep password

配置只要是 root 用户+密码,在任何主机上都能登录 MySQL 数据库。

7)用刚刚查到的密码进入mysql(如果报错,给密码加单引号)

  1. [luanhao@Bigdata00 software]$ mysql -uroot -p 'password'

8)设置复杂密码(由于 mysql****密码策略,此密码必须足够复杂)

  1. mysql> set password=password("Qs23=zs32");

9)更改 mysql****密码策略

  1. mysql> set global validate_password_length=4;
  2. mysql> set global validate_password_policy=0;

10)设置简单好记的密码

  1. mysql> set password=password("000000");

11)进入msyql****库

  1. mysql> use mysql

12)查询 user****表

  1. mysql> select user, host from user;

13)修改 user表,把Host****表内容修改为%

  1. mysql> update user set host="%" where user="root";

14)刷新

  1. mysql> flush privileges;

15)退出

  1. mysql> quit;

Hive 准备

1)把 apache-hive-3.1.2-bin.tar.gz上传到 linux****的/opt/software 目录下

2)解压 apache-hive-3.1.2-bin.tar.gz****到/opt/module目录下面

  1. [luanhao@Bigdata00 software]$ tar -zxvf /opt/software/apache-hive-3.1.2-bin.tar.gz -C /opt/module/

3)修改 apache-hive-3.1.2-bin.tar.gz的名称为hive

  1. [luanhao@Bigdata00 software]$ mv /opt/module/apache-hive-3.1.2-bin/ /opt/module/hive

4)修改/etc/profile,添加环境变量

  1. [luanhao@Bigdata00 software]$ sudo vim /etc/profile
  2. 添加内容
  3. #HIVE\_HOME
  4. export HIVE_HOME=/opt/module/hive
  5. export PATH=$PATH:$HIVE\_HOME/bin

重启 Xshell 对话框或者 source 一下 /etc/profile 文件,使环境变量生效

  1. [luanhao@Bigdata00 software]$ source /etc/profile

5)解决日志 Jar****包冲突,进入/opt/module/hive/lib 目录(有冲突再做)

  1. [luanhao@Bigdata00 lib]$ mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar.bak

Hive元数据配置到MySQL

拷贝驱动

将 MySQL 的 JDBC 驱动拷贝到 Hive 的 lib 目录下

  1. [luanhao@Bigdata00 lib]$ cp /opt/software/mysql-connector-java-5.1.27-bin.jar /opt/module/hive/lib/

配置Metastore到****MySQL

在$HIVE_HOME/conf 目录下新建 hive-site.xml 文件

  1. [luanhao@Bigdata00 conf]$ vim hive-site.xml

添加如下内容

  1. <?xml version="1.0"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <configuration>
  4. <property>
  5. <name>javax.jdo.option.ConnectionURL</name>
  6. <value>jdbc:mysql://Bigdata00:3306/metastore?useSSL=false</value>
  7. </property>
  8. <property>
  9. <name>javax.jdo.option.ConnectionDriverName</name>
  10. <value>com.mysql.jdbc.Driver</value>
  11. </property>
  12. <property>
  13. <name>javax.jdo.option.ConnectionUserName</name>
  14. <value>root</value>
  15. </property>
  16. <property>
  17. <name>javax.jdo.option.ConnectionPassword</name>
  18. <value>000000</value>
  19. </property>
  20. <property>
  21. <name>hive.metastore.warehouse.dir</name>
  22. <value>/user/hive/warehouse</value>
  23. </property>
  24. <property>
  25. <name>hive.metastore.schema.verification</name>
  26. <value>false</value>
  27. </property>
  28. <property>
  29. <name>hive.server2.thrift.port</name>
  30. <value>10000</value>
  31. </property>
  32. <property>
  33. <name>hive.server2.thrift.bind.host</name>
  34. <value>Bigdata00</value>
  35. </property>
  36. <property>
  37. <name>hive.metastore.event.db.notification.api.auth</name>
  38. <value>false</value>
  39. </property>
  40. <property>
  41. <name>hive.cli.print.header</name>
  42. <value>true</value>
  43. </property>
  44. <property>
  45. <name>hive.cli.print.current.db</name>
  46. <value>true</value>
  47. </property>
  48. </configuration>

启动****Hive

初始化元数据库

1)登陆MySQL

  1. [luanhao@Bigdata00 conf]$ mysql -uroot -p000000

2)新建 Hive****元数据库

  1. mysql> create database metastore;
  2. mysql> quit;

3)初始化 Hive****元数据库

  1. [luanhao@Bigdata00 conf]$ schematool -initSchema -dbType mysql -verbose

启动hive客户端

1)启动 Hive****客户端

  1. [luanhao@Bigdata00 hive]$ bin/hive

2)查看一下数据库

  1. hive (default)> show databases;
  2. OK
  3. database_name
  4. default

Spark 准备

(1)Spark 官网下载 jar 包地址:

http://spark.apache.org/downloads.html

(2)上传并解压解压 spark-3.0.0-bin-hadoop3.2.tgz

  1. [luanhao@Bigdata00 software]$ tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz -C /opt/module/
  2. [luanhao@Bigdata00 software]$ mv /opt/module/spark-3.0.0-bin-hadoop3.2 /opt/module/spark

(3)配置 SPARK_HOME 环境变量

  1. [luanhao@Bigdata00 software]$ sudo vim /etc/profile
  2. 添加如下内容
  3. # SPARK\_HOME
  4. export SPARK_HOME=/opt/module/spark
  5. export PATH=$PATH:$SPARK\_HOME/bin

source 使其生效

  1. [luanhao@Bigdata00 software]$ source /etc/profile

(4)在hive中创建spark****配置文件

  1. [luanhao@Bigdata00 software]$ vim /opt/module/hive/conf/spark-defaults.conf
  2. 添加如下内容(在执行任务时,会根据如下参数执行)
  3. spark.master yarn
  4. spark.eventLog.enabled true
  5. spark.eventLog.dir hdfs://Bigdata00:8020/spark-history
  6. spark.executor.memory 1g
  7. spark.driver.memory 1g

在 HDFS 创建如下路径,用于存储历史日志

  1. [luanhao@Bigdata00 software]$ hadoop fs -mkdir /spark-history

(5)向 HDFS上传Spark纯净版jar****包

说明 1:由于 Spark3.0.0 非纯净版默认支持的是 hive2.3.7 版本,直接使用会和安装的Hive3.1.2 出现兼容性问题。所以采用 Spark 纯净版 jar 包,不包含 hadoop 和 hive 相关依赖,避免冲突。

说明 2:Hive 任务最终由 Spark 来执行,Spark 任务资源分配由 Yarn 来调度,该任务有可能被分配到集群的任何一个节点。所以需要将 Spark 的依赖上传到 HDFS 集群路径,这样集群中任何一个节点都能获取到。

(6)上传并解压 spark-3.0.0-bin-without-hadoop.tgz

  1. [luanhao@Bigdata00 software]$ tar -zxvf /opt/software/spark-3.0.0-bin-without-hadoop.tgz

(7)上传 Spark 纯净版 jar 包到 HDFS

  1. [luanhao@Bigdata00 software]$ hadoop fs -mkdir /spark-jars
  2. [luanhao@Bigdata00 software]$ hadoop fs -put spark-3.0.0-bin-without-hadoop/jars/* /spark-jars

Hive on Spark 配置

修改 hive-site.xml****文件

  1. [luanhao@Bigdata00 ~]$ vim /opt/module/hive/conf/hive-site.xml
  2. 添加如下内容
  3. <!--Spark 依赖位置(注意:端口号 8020 必须和 namenode 的端口号一致)-->
  4. <property>
  5. <name>spark.yarn.jars</name>
  6. <value>hdfs://Bigdata00:8020/spark-jars/*</value>
  7. </property>
  8. <!--Hive 执行引擎-->
  9. <property>
  10. <name>hive.execution.engine</name>
  11. <value>spark</value>
  12. </property>
  13. <!--Hive Spark 连接超时时间-->
  14. <property>
  15. <name>hive.spark.client.connect.timeout</name>
  16. <value>10000ms</value>
  17. </property>

hadoop 3.1.3 默认 NameNode 端口是 9820****重新在hadoop 下的 core-site.xml 将 9820 修改成 8020 就可以了

core-site.xml

  1. <!-- 指定NameNode的地址 -->
  2. <property>
标签: hive spark hadoop

本文转载自: https://blog.csdn.net/2401_87111282/article/details/142153842
版权归原作者 2401_87111282 所有, 如有侵权,请联系我们删除。

“Hive 整合 Spark 全教程 (Hive on Spark)”的评论:

还没有评论