0


spark集群配置

1.集群部署规划

表1-1 集群部署规划
主机名masterslave1slave2HDFSNameNode
SecondaryNameNode

DataNode
DataNodeYARNNodeManage
ResourceManager

NodeManager
SparkMasterWorkerWorker

2.安装Spark

  1. 进入/export/software目录,将spark软件包导入该目录下。解压spark软件包 到/export/servers目录下,并重命名为spark
  1. [root@master ~]# cd /export/software/
  2. [root@master software]# rz -be
  3. [root@master software]# ls
  4. apache-flume-1.8.0-bin.tar.gz kafka_2.11-1.0.2.tgz
  5. apache-hive-1.2.1-bin.tar.gz redis-6.2.1.tar.gz
  6. apache-zookeeper-3.5.9-bin.tar.gz spark-2.0.0-bin-without-hadoop.tgz
  7. hadoop-2.6.4.tar.gz sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz
  8. hbase-1.2.0-bin.tar.gz zeppelin-0.8.2-bin-all.tgz
  9. jdk-8u141-linux-x64.tar.gz
  10. [root@master software]# tar -zxvf spark-2.0.0-bin-without-hadoop.tgz -C /export/servers/
  11. [root@master software]# cd /export/servers/
  12. [root@master servers]# mv spark-2.0.0-bin-without-hadoop spark

3.文件配置

  1. 配置spark-env.sh
  1. [root@master servers]# cd spark/
  2. [root@master spark]# cd conf/
  3. [root@master conf]# cp spark-env.sh.template spark-env.sh
  4. [root@master conf]# vi spark-env.sh
  1. export SPARK_DIST_CLASSPATH=$(/export/servers/hadoop-2.6.4/bin/hadoop classpath)
  2. export HADOOP_CONF_DIR=/export/servers/hadoop-2.6.4/etc/hadoop
  3. export SPARK_MASTER_IP=192.168.38.128
  4. 配置slaves文件。
  1. [root@master conf]# vi slaves
  1. slave1
  2. slave2
  3. 该文件中写入哪个主机名,哪个主机就会存在worker节点。按照集群部署规划,slave1slave2主机拥有worker,因此写入这两行内容。
  4. 配置Spark环境变量。将以下内容写入配置文件/etc/profile末尾,并source使之生效。
  5. export SPARK_HOME=/export/servers/spark
  6. export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

4. 分发文件

  1. spark远程发送到其他集群
  1. [root@master conf]# cd /export/servers/
  2. [root@master servers]# scp -r /export/servers/spark slave1:/export/servers/
  3. [root@master servers]# scp -r /export/servers/spark slave2:/export/servers/

5.启动集群

首先启动Hadoop集群。(命令省略)

启动Master节点。

  1. [root@master ~]#start-master.sh

启动Slave节点。

  1. [root@master ~]#start-slaves.sh

6.查看集群

  1. 集群进程与集群部署规划一致。
  1. [root@master servers]# jps.sh
  2. **********master**********
  3. 2807 Jps
  4. 2139 Master
  5. 1854 NameNode
  6. **********slave1**********
  7. 1600 DataNode
  8. 2005 Worker
  9. 2470 Jps
  10. 1783 NodeManager
  11. 1705 SecondaryNameNode
  12. **********slave2**********
  13. 1830 NodeManager
  14. 2232 Worker
  15. 1723 ResourceManager
  16. 1597 DataNode
  17. 2639 Jps
  18. [root@master servers]#
  1. 查看Spark页面

启动成功后,可以通过“host:port”的方式来访问Spark管理页面,例如:http://192.168.38.128:8080

标签: spark

本文转载自: https://blog.csdn.net/m0_37658639/article/details/123635662
版权归原作者 EsmeZhao 所有, 如有侵权,请联系我们删除。

“spark集群配置”的评论:

还没有评论