0


Hadoop学习之hadoop安装、JDK安装、集群启动(完全分布式)

作者简介:大家好我是Apathfinder,目前是一名在校大学生,软件工程专业,记录学习路上的点点滴滴。
个人主页:Apathfinder

本文专栏:Hadoop学习


前言 :本文主要是对hadoop完全分布式环境安装过程中的hadoop安装以及JDK安装作详细的介绍,以及集群启动。


正文

一.整体部署情况

hadoop完全分布式整体布局hadoop01hadoop02hadoop03HDFS
NameNode

DataNode
DataNode
SecondaryNameNode

DataNode
YARNNodeManager
ResourceManager

NodeManager
NodeManager
** 以下操作在hadoop01节点上做(主节点),而后同步hadoop02,hadoop03**

二.JDK安装

1.下载JDK

大家可以到官网选择相应版本下载

我的安装版本如下图所示:

2.上传JDK

在这里我用了mobaxterm来远程登录hadoop01,然后将Windows上下好的JDK压缩包以及hadoop压缩包上传

上传成功后则能登录hadoop01查看,如图

3.安装JDK

1.解压

在上传了之后,咱们就进行安装,使用解压命令解压到指定目录

  1. tar -zxvf jdk-8u333-linux-x64.tar.gz -C /usr/local/

2.添加环境变量

使用命令

  1. vi /etc/profile/

打开文件,然后进行编辑,加入以下内容

  1. export JAVA_HOME=/usr/local/jdk1.8.0_333
  2. export PATH=${JAVA_HOME}/bin:$PATH

然后使用以下命令立即生效

  1. source /etc/profile

3.验证安装

输入

  1. java -version

验证是否安装成功,成功则如下图

三.Hadoop安装

1.下载hadoop

大家可以到官网选择相应版本下载

Apache Hadoop

我在这里下载的是hadoop3.3.3版本

2.上传hadoop

这里我在上传JDK的同时与hadoop一起上传了,具体操作可以看JDK部分

3.安装hadoop

1.解压

解压命令改个名称就行

  1. tar -zxvf hadoop-3.3.3.tar.gz -C /usr/local/

2.添加环境变量

与JDK操作相同,这里我就不过多叙述了,添加以下内容:

  1. export HADOOP_HOME=/usr/local/hadoop-3.3.3
  2. export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

如下图底部:

3.修改配置文件

先切换到hadoop目录

  1. cd /usr/local/hadoop-3.3.3/etc/hadoop

然后进行下列配置文件的修改,用编辑命令即可

1.hadoop-env.sh

以下命令编辑

  1. vi hadoop-env.sh

加入

  1. export JAVA_HOME=/usr/local/jdk1.8.0_333

2.yarn-env.sh

同上

3.mapred-env.sh

同上

4.core-site.xml

  1. #在 <configuration></configuration> 之间加入
  2. <!-- 指定HDFSNameNode的地址 -->
  3. <property>
  4. <name>fs.defaultFS</name>
  5. <value>hdfs://hadoop01:9000</value>
  6. </property>
  7. <!-- 指定Hadoop运行时产生文件的存储目录 -->
  8. <property>
  9. <name>hadoop.tmp.dir</name>
  10. <value>/usr/local/hadoop-3.3.3/tmp</value>
  11. </property>

5.hdfs-site.xml

  1. <property>
  2. <name>dfs.replication</name>
  3. <value>2</value>
  4. </property>
  5. <!-- 指定Hadoop辅助名称节点主机配置 -->
  6. <property>
  7. <name>dfs.namenode.secondary.http-address</name>
  8. <value>hadoop03:50090</value>
  9. </property>

6.yarn-site.xml

  1. <property>
  2. <name>yarn.resourcemanager.hostname</name>
  3. <value>hadoop02</value>
  4. </property>
  5. <property>
  6. <name>yarn.nodemanager.aux-services</name>
  7. <value>mapreduce_shuffle</value>
  8. </property>

7.mapred-site.xml

  1. <property>
  2. <name>mapreduce.framework.name</name>
  3. <value>yarn</value>
  4. </property>

8.workers

  1. vi workers

加入以下内容

  1. hadoop01
  2. hadoop02
  3. hadoop03

4.验证安装

在终端输入hadoop后,出现如图所示则成功,即命令使用提示

四.集群启动

1.传送文件

将hadoop01上的JDK,hadoop所在目录传到hadoop02,hadoop03节点上,命令如下

  1. scp -r /usr/local/ root@hadoop02:/usr/
  2. scp -r /usr/local/ root@hadoop03:/usr/
  3. #同步环境配置文件
  4. rsync -rvl /etc/profile root@hadoop02:/etc/profile
  5. rsync -rvl /etc/profile root@hadoop03:/etc/profile

然后与之前步骤一样验证hadoop02,03机上是否成功安装

2.格式化namenode节点

先切换到指定目录下

  1. cd /usr/local/hadoop-3.3.3

然后格式化

  1. hadoop namenode -format #格式化NameNode

3.集群的启动

为了偷懒,我使用start-all.sh来启动集群 ,每次在web访问完后,stop-all.sh关闭集群,下次启动集群访问,就不再需要格式化namenode。

启动集群之后,可以使用jps来查看是否每个节点都成功启动相应的服务。如下图:

4.web端访问

为了访问方便,你可以在C:\Windows\System32\drivers\etc\hosts文件下做映射,加上IP与主机名,

  1. hadoop3.x.x版本端口50070改为了9870

1.访问9870端口(即50070)

在浏览器输入hadoop01:9870

2.访问8088端口

在浏览器输入hadoop02:8088


写在最后

** 今天的文章就到这里,如果你觉得写的不错,可以动动小手给博主一个免费的关注和点赞👍;如果你觉得存在问题的话,欢迎在下方评论区指出和讨论。
谢谢观看,你的支持就是我前进的动力!**


标签: 大数据 hadoop

本文转载自: https://blog.csdn.net/kevinlegion/article/details/125819936
版权归原作者 Apathfinder 所有, 如有侵权,请联系我们删除。

“Hadoop学习之hadoop安装、JDK安装、集群启动(完全分布式)”的评论:

还没有评论