spark 作业一直卡在accepted
问题现象
通过yarn-cluster模式提交spark作业,客户端日志一直卡在submit app,没有运行
问题排查
1.查看yarn app日志
appid已生成,通过yarn查看app状态为等待am运行。具体查看am日志发现其一直在尝试访问hbase,尝试了36次后失败(集群hbase服务已正常停止)
问题:作业逻辑中不含hbase的相关内容,为什么会去访问hbase?
2.问题分析与原因
分析:
通过上面截图的堆栈信息查看从obtainDeletionTokens方法到HBaseDelegationTokenProvider的obtainDeletionTokens方法,说明这里是去尝试获取hbase的安全令牌。
(hbase的token获取的用户需要具有hbase:meta表的exec权限)
原因:
spark 官方文档
- 在官网的文档描述:kerberos环境中,spark app在认证的时候,可能会获取hdfs、hive、hbase等服务的安全令牌。
- 获取hbase的条件:hbase位于集群classpath,同时集群hbase开启了kerberos认证。
- 所以 我们想跳过这个过程,需要提交作业时传入spark.yarn.security.credentials.hbase.enabled=false
版权归原作者 zincooo 所有, 如有侵权,请联系我们删除。