0


Hadoop学习之hadoop安装、JDK安装、集群启动(完全分布式)

作者简介:大家好我是Apathfinder,目前是一名在校大学生,软件工程专业,记录学习路上的点点滴滴。
个人主页:Apathfinder

本文专栏:Hadoop学习


前言 :本文主要是对hadoop完全分布式环境安装过程中的hadoop安装以及JDK安装作详细的介绍,以及集群启动。


正文

一.整体部署情况

hadoop完全分布式整体布局hadoop01hadoop02hadoop03HDFS
NameNode

DataNode
DataNode
SecondaryNameNode

DataNode
YARNNodeManager
ResourceManager

NodeManager
NodeManager
** 以下操作在hadoop01节点上做(主节点),而后同步hadoop02,hadoop03**

二.JDK安装

1.下载JDK

大家可以到官网选择相应版本下载

我的安装版本如下图所示:

2.上传JDK

在这里我用了mobaxterm来远程登录hadoop01,然后将Windows上下好的JDK压缩包以及hadoop压缩包上传

上传成功后则能登录hadoop01查看,如图

3.安装JDK

1.解压

在上传了之后,咱们就进行安装,使用解压命令解压到指定目录

tar -zxvf jdk-8u333-linux-x64.tar.gz -C /usr/local/

2.添加环境变量

使用命令

vi  /etc/profile/ 

打开文件,然后进行编辑,加入以下内容

export JAVA_HOME=/usr/local/jdk1.8.0_333
export PATH=${JAVA_HOME}/bin:$PATH

然后使用以下命令立即生效

source /etc/profile 

3.验证安装

输入

java -version

验证是否安装成功,成功则如下图

三.Hadoop安装

1.下载hadoop

大家可以到官网选择相应版本下载

Apache Hadoop

我在这里下载的是hadoop3.3.3版本

2.上传hadoop

这里我在上传JDK的同时与hadoop一起上传了,具体操作可以看JDK部分

3.安装hadoop

1.解压

解压命令改个名称就行

tar -zxvf hadoop-3.3.3.tar.gz -C /usr/local/

2.添加环境变量

与JDK操作相同,这里我就不过多叙述了,添加以下内容:

export HADOOP_HOME=/usr/local/hadoop-3.3.3
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

如下图底部:

3.修改配置文件

先切换到hadoop目录

cd /usr/local/hadoop-3.3.3/etc/hadoop

然后进行下列配置文件的修改,用编辑命令即可

1.hadoop-env.sh

以下命令编辑

vi hadoop-env.sh

加入

export JAVA_HOME=/usr/local/jdk1.8.0_333

2.yarn-env.sh

同上

3.mapred-env.sh

同上

4.core-site.xml

#在  <configuration></configuration> 之间加入

<!-- 指定HDFS中NameNode的地址 -->
<property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop01:9000</value>
</property>
<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop-3.3.3/tmp</value>
</property>

5.hdfs-site.xml

<property>
        <name>dfs.replication</name>
        <value>2</value>
</property>
<!-- 指定Hadoop辅助名称节点主机配置 -->
<property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop03:50090</value>
</property>

6.yarn-site.xml

<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop02</value>
</property>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

7.mapred-site.xml

<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>

8.workers

vi workers

加入以下内容

hadoop01 

hadoop02

hadoop03

4.验证安装

在终端输入hadoop后,出现如图所示则成功,即命令使用提示

四.集群启动

1.传送文件

将hadoop01上的JDK,hadoop所在目录传到hadoop02,hadoop03节点上,命令如下

scp -r  /usr/local/  root@hadoop02:/usr/
scp -r  /usr/local/  root@hadoop03:/usr/ 

#同步环境配置文件
rsync  -rvl  /etc/profile  root@hadoop02:/etc/profile 
rsync  -rvl  /etc/profile  root@hadoop03:/etc/profile 

然后与之前步骤一样验证hadoop02,03机上是否成功安装

2.格式化namenode节点

先切换到指定目录下

cd /usr/local/hadoop-3.3.3

然后格式化

hadoop  namenode  -format     #格式化NameNode

3.集群的启动

为了偷懒,我使用start-all.sh来启动集群 ,每次在web访问完后,stop-all.sh关闭集群,下次启动集群访问,就不再需要格式化namenode。

启动集群之后,可以使用jps来查看是否每个节点都成功启动相应的服务。如下图:

4.web端访问

为了访问方便,你可以在C:\Windows\System32\drivers\etc\hosts文件下做映射,加上IP与主机名,

    hadoop3.x.x版本端口50070改为了9870

1.访问9870端口(即50070)

在浏览器输入hadoop01:9870

2.访问8088端口

在浏览器输入hadoop02:8088


写在最后

** 今天的文章就到这里,如果你觉得写的不错,可以动动小手给博主一个免费的关注和点赞👍;如果你觉得存在问题的话,欢迎在下方评论区指出和讨论。
谢谢观看,你的支持就是我前进的动力!**


标签: 大数据 hadoop

本文转载自: https://blog.csdn.net/kevinlegion/article/details/125819936
版权归原作者 Apathfinder 所有, 如有侵权,请联系我们删除。

“Hadoop学习之hadoop安装、JDK安装、集群启动(完全分布式)”的评论:

还没有评论