0


hive on spark报错:没有发现类

项目场景:

配置hive on spark环境报错


问题描述

官网下载的Hive3.1.2和Spark3.0.0默认是不兼容的。因为Hive3.1.2支持的Spark版本是2.4.5,所以需要我们重新编译Hive3.1.2版本。
我们使用编译好的Hive3.1.2版本配置引擎为spark时仍然有问题,报错信息:

Failed to execute spark task, with exception
‘org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create
Spark client for Spark session 7abab179-b49d-4ed0-b45b-0ef1dfb3f52b)’
FAILED: Execution Error, return code 30041 from
org.apache.hadoop.hive.ql.exec.spark.SparkTask. Failed to create Spark
client for Spark session 7abab179-b49d-4ed0-b45b-0ef1dfb3f52b

原因分析:

查看yarn日志后发现重要信息

在这里插入图片描述
红框这段话的意思就是没有发现类
一般出现这两种情况有两个原因:

  1. 版本兼容问题
  2. 配置文件没有声明类

我们是用的已经编译好的hive,所以已经解决了版本兼容问题,我们尝试在hadoop配置文件声明类。

解决方案:

在虚拟机中输入hadoop classpath,复制打印在控制台的信息
yarn-site.xml文件中添加

<property><name>yarn.application.classpath</name><value>hadoop classpath打印出来的信息</value></property>

然后我们运行hive,插入一条信息,就成功了!hive on spark配置就结束了。

标签: hive spark hadoop

本文转载自: https://blog.csdn.net/weixin_60578371/article/details/125149777
版权归原作者 南辰x 所有, 如有侵权,请联系我们删除。

“hive on spark报错:没有发现类”的评论:

还没有评论