0


Spark集群搭建记录 | 云计算[CentOS7] | Spark配置

本文目录

写在前面

本系列文章索引以及一些默认好的条件在 传送门
要想完成Spark的配置,首先需要完成Hadoop的配置
Hadoop配置教程:链接
在这里插入图片描述

若未进行明确说明,均按照root用户操作

step1 Spark下载

下载链接
因为后续可能会涉及到很严重的版本问题,所以说在这里我们为了适配,选择2.4.0版本
在这里插入图片描述
下载后放在master主机的

  1. /usr/local


然后解压并改名:

  1. cd /usr/local
  1. tar -zxvf spark-2.4.0-bin-without-hadoop.tgz.gz
  1. mv spark-2.4.0-bin-without-hadoop spark

最后改变拥有者为:root

  1. chown -R root:root spark

step2 修改环境变量

配置文件修改请勿盲目CV,应根据自己实际情况确定

~/.bashrc

  1. vim ~/.bashrc

加入:

  1. exportSPARK_HOME=/usr/local/spark
  2. exportPATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
  3. exportJAVA_LIBRARY_PATH=/usr/local/hadoop/lib/native

source一下使其生效

  1. source ~/.bashrc

/etc/profile

  1. vim /etc/profile

加入:

  1. exportSPARK_HOME=/usr/local/spark
  2. exportPATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

  1. source /etc/profile

step3 配置Master-文件修改

slaves

  1. cd /usr/local/spark/conf
  1. cp slaves.template slaves
  1. vim slaves

修改为:

  1. slave1
  2. slave2

博主去掉了里面的

  1. localhost

spark-env.sh

  1. cp spark-env.sh.template spark-env.sh
  1. vim spark-env.sh

配置文件修改请勿盲目CV,应根据自己实际情况确定
比如JAVA_HOME、SPARK_MASTER_IP

  1. exportSPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)exportHADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
  2. exportSPARK_MASTER_IP= 这里要写上masterIP
  3. exportJAVA_HOME=/usr/java/jdk1.8.0_181-amd64
  4. exportHADOOP_HOME=/usr/local/hadoop
  5. exportSPARK_WORKER_MEMORY=1024m
  6. exportSPARK_WORKER_CORES=1

step4 配置slave节点

在主机操作:

  1. cd /usr/local
  1. tar -zcf spark.master.tar.gz spark

slave01-315是博主的slave主机名,请根据自身实际情况自行修改

  1. scp spark.master.tar.gz slave01-315:/usr/local/spark.master.tar.gz

切换slave01-315机器进行操作:

  1. cd /usr/local
  1. tar -zxf spark.master.tar.gz

自行查看是否解压后文件夹名字为

  1. spark

,如若不是请自行改名为

  1. spark
  1. chown -R root /usr/local/spark
  1. rm -rf spark.master.tar.gz

在主机操作:

  1. cd /usr/local

slave02-315是博主的slave主机名,请根据自身实际情况自行修改

  1. scp spark.master.tar.gz slave02-315:/usr/local/spark.master.tar.gz

切换slave02-315机器进行操作:

  1. cd /usr/local
  1. tar -zxf spark.master.tar.gz

自行查看是否解压后文件夹名字为

  1. spark

,如若不是请自行改名为

  1. spark
  1. chown -R root /usr/local/spark
  1. rm -rf spark.master.tar.gz

step5 集群启动

在主机操作:
启动

  1. hadoop

:

  1. /usr/local/hadoop/sbin/start-all.sh

启动

  1. spark

  1. Master
  1. /usr/local/spark/sbin/start-master.sh

启动

  1. spark

所有的

  1. slave
  1. /usr/local/spark/sbin/start-slaves.sh

关闭集群只需要将start换成stop

step6 web浏览器状态查看

进入8080端口进行查看:
在这里插入图片描述
进入

  1. spark-shell

:
在这里插入图片描述
然后进入web浏览器查看4040端口:
在这里插入图片描述

step7 配置开机启动(可选)

  1. vim /etc/rc.local

请根据自己实际情况添加,切勿满目CV

  1. su - root -c /usr/local/hadoop/sbin/start-all.sh
  2. su - root -c /usr/local/spark/sbin/start-master.sh
  3. su - root -c /usr/local/spark/sbin/start-slaves.sh

到此,spark配置结束
下一篇(运行scala程序实现单词技术)已经实现择时更新~,敬请期待
到时你将看到:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

标签: 云计算 linux spark

本文转载自: https://blog.csdn.net/weixin_45712255/article/details/124206454
版权归原作者 PushyTao 所有, 如有侵权,请联系我们删除。

“Spark集群搭建记录 | 云计算[CentOS7] | Spark配置”的评论:

还没有评论