0


spark启动不成功

spark启动不成功

1.查看报错信息

2.原因分析:

这种情况一般是在同一节点启动多个spark master(worker)

3.解决方案:

1>首先应该去停止dfs和yarn,使用命令

stop-all.sh

2> 停止之后使用命令查看当前进程

jps

3> 发现停止之后还是有master,使用命令杀死该进程即可

kill -9 3564

在通过jps查看当前进程

jps

4>另外两个节点同理,slave01通过jps查看当前进程

杀死该节点的worker

kill -9 2787

5>slave02 同上

6> 在master节点重新启动dfs和yarn

start-dfs.sh
start-yarn.sh

7>通过jps命令查看进程

8> 重新启动spark,便可进入spark中

sbin/start-all.sh
bin/spark-shell

标签: hadoop spark

本文转载自: https://blog.csdn.net/weixin_65195823/article/details/129437588
版权归原作者 小酱饼 所有, 如有侵权,请联系我们删除。

“spark启动不成功”的评论:

还没有评论