0


spark集群部署(第三弹)

   ![在这里插入图片描述](https://img-blog.csdnimg.cn/9633f3bb7c3643d0a6989e51c0470ac6.gif#pic_center)

spark集群部署

1 修改spark-env.sh配置文件

$ssh master

$cd opt/module/spark/conf

$vi spark-env.sh

步骤1 将指定master节点配置参数注释‘#’,添加SPARK_DAEMON_JAVA_OPTS配置参数

export JAVA_HOME=/opt/module/jdk1.8.0_144

**#**export SPARK_MASTER_HOST=master

export SPARK_MASTER_PORT=7077

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER

-Dspark.deploy.zookeeper.url=master:2181,slave1:2181,slave2:2181

-Dspark.deploy.zookeeper.dir=/spark"

(1)spark.deploy.recoveryMode=ZOOKEEPER:设置zookeeper去启用备用master模式

(2)spark.deploy.zookeeper.url=master:指定zookeeper的server地址

(3)spark.deploy.zookeeper.dir:保存集群元数据信息的文件和目录

将spark-env.sh分发至slave1和slave2节点上,保证配置文件统一

scp spark-env.sh slave1:/opt/module/spark/conf/

scp spark-env.sh slave2:/opt/module/spark/conf/

2 启动spark HA集群

步骤1 启动zookeeper服务,3台节点都要

$cd /opt/module/zookeeper/bin

$ zkServer.sh start

问题1 : 启动spark集群出现以下问题

解决:配置问题,自己把spark-env.sh配置内容里的横杆空格了

问题2 在slave1节点启动master服务报 stop it first(意思是要你先停止这个,才能开启master,也可以不去停止)

解决:在master节点上停止spark集群

$cd opt/software/spark

$sbin/stop-all.sh

解决以上的问题后,重新在master节点启动spark集群与在slave节点单独启动master服务

在master节点上单独启动spark服务

$/opt/module/spark/sbin/start-all.sh

在slave1节点上单独启动Master服务

$/opt/module/spark/sbin/start-master.sh

步骤2 访问http://192.168.196.102(slave1):8080,查看备用master节点状态

Status****:STANDBY # 说明spark HA配置完成

3.测试spark HA集群,为演示是否解决单点故障问题,关闭master节点的master进程

$ /opt/module/spark/sbin/stop-master.sh

标签: spark idea hadoop

本文转载自: https://blog.csdn.net/m0_57781407/article/details/126166123
版权归原作者 发量不足 所有, 如有侵权,请联系我们删除。

“spark集群部署(第三弹)”的评论:

还没有评论