0


linux 部署Hadoop完全分布式集群教程

一、准备工作

1、本次任务需要三台虚拟机,主机名分别为Master、Slave01、Slave02先在Master上安装好jdk和Hadoop(安装教程可以参考这两篇文章)然后为了简便我们直接克隆两台Master来配置成为Slave01、Slave02;

2、把克隆的虚拟机名字改为 Slave01、Slave02

二、配置IP与密钥

1、分别在三台虚拟机上的root下输入命令vi /etc/sysconfig/network编辑为如下内容(另外两台为Slave01、Slave02)

2、在三台虚拟机上分别输入命令:vi /etc/sysconfig/network-scripts/ifcfg-eth0配置IP地址(如图为Master的IP配置,配置完记得重启网络service network restart)

(如图为Slave01的IP配置)

(如图为Slave02的IP配置)

3、输入命令:hostname +主机名更改三台虚拟机的主机名 ,第一台为Master

第二台主机名为Slave01

第三台主机名为Slave02

4、分别在三台虚拟机的root上输入命令:vi /etc/hosts输入三台虚拟机的主机名与对应的IP地址(如图为Master)

如图为Slave01节点

如图为Slave02节点

5、在 Master节点上输入配置密钥的命令: ssh-keygen -t rsa 回车之后进入到./ssh目录下输入命令scp authorized_ keys hadoop(当前用户名)@192.168.0.111(Slave01、Slave02的IP地址): /home/ hadoop/.ssh/(Slave01、Slave01的 .ssh文件的路径)。免密成功后如图所示

三、配置文件变量

1、分别在三台虚拟机下进入到hadoop文件下输入命令:vi hadoop-env.sh加入 export JAVA_HOME=/home/hadoop/software/jdk18(这里为自己的jdk安装路径)(黑色背景为xshell 远程连接虚拟机后的终端,直接在虚拟机终端输入也可以但是使用xshell连接后便于配置文件内容较多时可以直接复制粘贴)不会使用xshell可以参考这篇文章

2、输入命令:vi yarn-env.sh也输入自己的jdk安装路径

5、接下来需要在三台虚拟机上配置如图四个文件

输入命令:vi core-site.xml输入以下内容

<configuration> <property>

<name>fs.defaultFS</name>

<value>hdfs://HadoopMaster:9000</value>

</property> <property>

<name>hadoop.tmp.dir</name>

<value>/home/hadoop/software/hadooptmp</value>

</property> </configuration>

输入命令:vi hdfs-site.xml输入以下内容

<configuration> <property>

<name>dfs.replication</name>

<value>2</value>

</property> </configuration>

输入命令:vi yarn-site.xml输入以下内容

<configuration> <property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property> <property>

<name>yarn.resourcemanager.address</name>

<value>HadoopMaster:18040</value>

</property>

<property> <name>yarn.resourcemanager.scheduler.address</name>

<value>HadoopMaster:18030</value>

</property> <property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>HadoopMaster:18025</value>

</property> <property>

<name>yarn.resourcemanager.admin.address</name>

<value>HadoopMaster:18141</value>

</property> <property>

<name>yarn.resourcemanager.webapp.address</name>

<value>HadoopMaster:8088</value>

</property> </configuration>

输入命令:vi mapred-site.xml输入以下内容

<configuration> <property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property> </configuration>

6、在Master节点的hadoop目录下输入命令:vi workers

编辑内容如下加入Slave01 、Slave02节点

四、启动Hadoop全分布式集群

1、输入命令hdfs namenode -format 格式化

2、输入命令:start-all.sh启动Hadoop

3、输入命令:jps查看启动的进程,除JPS外有三个教程即为启动成功

4、此时分别在Slave01与Slave02节点上输入命令jps都可以看见有除JPS外的两个进程启动成功

五、检验是否完成

1、打开自己的浏览器在网址输入栏输入192.168.0.107:9807进行访问(192.168.0.107为自己虚拟机Master配置的IP地址)

再把9807改为8088就会出现访问如图所示网页

​ 这样Hadoop部署全布式集群就部署完成了!!!

标签: hadoop 分布式 linux

本文转载自: https://blog.csdn.net/qq_61247494/article/details/127186319
版权归原作者 qq_61247494 所有, 如有侵权,请联系我们删除。

“linux 部署Hadoop完全分布式集群教程”的评论:

还没有评论