0


Ubuntu下搭建Hadoop分布式集群

应课程要求,这学期学习到了云计算与大数据,这次实验就是让我们在ubuntu中配置好hadoop分布式集群,这两天就从网上一边搜寻教程并结合课本(课本上是使用的centos,而且版本较老,不太适用)一边自己动手做,顺便自己也写一篇教程记录一下,其中也包含一些遇到的问题及解决方法。因为第一次接触到这方面所以有很多不足的地方,也有写的不清楚的地方,见谅!

在搭建的过程中,发现几篇写得很详细且文章排版清晰的博客,可供参考:

https://blog.csdn.net/zyw2002/article/details/123486055

http://dblab.xmu.edu.cn/blog/2775-2/

https://blog.csdn.net/Pro_MikeXiao/article/details/108740821

另外,教程中涉及到存放路径等操作可以视自己情况而定,只需要在操作时注意改成自己的路径即可

一、准备工作

注:笔者虚拟机环境是ubuntu20.04.3,教程中步骤大多属于命令行操作,这也是为了让自己回顾一下Linux命令行操作方式,如果对Linux操作不太熟悉的可以根据教程的描述进行窗口化的操作,当遇到某些操作需要管理员权限的再用命令行

教程配置的是分布式Hadoop集群,所以请先准备好两台虚拟机(master和slave)分别作为主从机,其中有些配置是主从机都需要做的配置(比如前要配置中的前三点和JDK的配置),有些是只用在主机上配置(比如前要配置中的第四点和Hadoop的配置),然后复制到从机即可(在进行这些步骤之前我都会提示是否需要对两台虚拟机进行相同操作)

为了省掉很多命令中因终端位置与操作目录位置不一致带来的麻烦,你可以在窗口界面进入到需要操作的目录后,右键单击,选择在终端中打开,然后再输入命令进行操作

image-20220501145549350

1.1 下载JDK

前往oracle官网,找到需要下载的版本(这里我选择的是jdk8,可以根据自己选择其他jdk版本),选择linux的x64版本,然后点击下载

也可以使用我分享的链接(提取码: 4xt3)

image-20220430215832297

1.2 下载Hadoop

前往apache下的Hadoop官网(可能会出现进不去的情况,需要文明上网一下),点击下载

也可以使用我分享的链接(提取码: ufxv)

image-20220430220126570

在下载页面选择要下载的版本,点击Release notes下的

Announcement

image-20220430220217098

然后点击下载即可

image-20220430220331866

1.3 传输文件

将下载的JDK和Hadoop从windows传输到Ubuntu中,可以使用Xftp(前提是已安装并开启ssh服务,可参考[2.2节](#2.2 确保Ubuntu环境已安装ssh))或是直接复制过去(前提是虚拟机安装了vmtools,不清楚的可以试试直接复制到虚拟机)

将这两个文件移动到ubuntu中的

/usr

文件夹中

image-20220430222343101

如果传输的过程中出现失败,原因为

permission is not allowed

说明被传输的文件夹权限不够,只需在ubuntu终端中输入

sudo chmod 777 文件夹名称

更改文件夹的权限

注:r表是读 (Read) 、w表示写 (Write) 、x表示执行 (execute)
读、写、运行三项权限可以用数字表示,就是r=4,w=2,x=1,777就是rwxrwxrwx,即给所有用户赋予对该目录的读、写和执行权限

因为本人在传输时就遇到该问题,然后通过这篇文章解决

二、前要配置

这些配置大多是安装配置Hadoop需要的,也可以放到安装好JDK后进行

2.1 查看防火墙是否关闭

在终端输入

sudo ufw status
  • 如果出现inactive说明防火墙是关闭的,active说明防火墙是开启的,若防火墙是关闭的就可以跳过这一步了
  • 关闭防火墙命令:sudo ufw disable
  • 开启防火墙命令:sudo ufw enable

2.2 确保Ubuntu环境已安装ssh

在ubuntu终端中输入

sudo ps -e |grep ssh
  • 如果有sshd的项说明已经安装ssh或是ssh服务已启动

image-20220430220942704

  • 如果已安装ssh但是查看ssh状态却没有sshd项,则说明ssh服务未开启,使用sudo service ssh start开启ssh服务
  • 如果未安装ssh,则在终端输入sudo apt-get updatesudo apt-get install openssh-server安装ssh,然后再查看ssh是否开启

2.3 配置主机名和hosts列表

这个根据个人安装的Linux发行版以及对应版本的不同而会有所差异(比如CentOS和Ubuntu配置主机名的文件就不一样),如果由于使用的Linux发行版及版本与笔者不一样,则只能自己再去百度一下

配置主机名

在终端输入

sudo vi /etc/hostname

,更改hostname文件中的主机名为master(另一台虚拟机命名为slave)

配置hosts列表

注:两个虚拟机都需要进行同样的操作

输入

sudo vi /etc/hosts

,将hosts文件中的

127.0.1.1

那一行内容删除

然后添加

(你自己的虚拟机的ip地址加上主机名)192.168.228.128   master
192.168.228.129   slave 
虚拟机的IP地址需要使用ifconfig命令查询得到

然后重启虚拟机,再打开终端,即可发现虚拟机主机名已改变

image-20220430233810751

③测试

在master和slave中均输入

ping master -c 4

ping slave -c 4

进行测试(表示

ping

4次就结束),若出现如下图所示则说明主机名和hosts列表配置成功

image-20220430234941547

参考博客

2.4 配置ssh免密匙登录

注:请确保已安装好ssh

这儿配置的是master免密登录到slave

2.4.1 在master下进行操作

在终端输入

ssh-keygen -t rsa

命令生成密匙,出现以下提示

image-20220501131836959

此时按下回车确认将ssh的密匙文件保存到默认文件夹下,然后会再出现两次提示,都按下回车键确认即可

按下三次回车键后,出现这种图示说明生成密匙成功

image-20220501132145146

然后我们可以使用

cd

ls

命令去到

/home/你的用户名/.ssh

文件夹中并查看是否有名为

id_rsa

id_rsa.pub

的文件,这就是生成的公钥和私钥文件

如果不想使用命令,也可以在窗口进入

.ssh

文件夹查看,如果在

/home/你的用户名

中没有看到.ssh文件夹,需要在右上方的勾选显示隐藏文件

image-20220501132555423

然后,继续输入

cat id_rsa.pub >> authorized_keys

复制一份公钥文件

注:由于刚刚我是进入到了

/home/你的用户名/.ssh

文件夹中,所以此时我所在位置就是在.ssh文件夹中,那么我就可以直接这样复制,如果你所在位置并不是在.ssh文件夹中则需要在命令中写好具体路径,比如,

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

cat /home/你的用户名/.ssh/id_rsa.pub >> /home/你的用户名/.ssh/authorized_keys

然后,修改authorized_keys文件的权限,命令为:

chmod 600 ~/.ssh/authorized_keys

修改后我们可以在.ssh文件夹中使用

ls -l

命令查看到该文件的权限,如果为

-rw------

说明修改成功

image-20220501135221827

然后,将authorized_keys文件复制到slave节点的根目录下,命令为

scp ~/.ssh/authorized_keys 你的虚拟机用户名@虚拟机主机名:~/

,比如我的命令就为

scp ~/.ssh/authorized_keys 用户名@slave:~/

image-20220501134442538

输入命令为出现以上提示,输入

yes

,回车

然后按提示输入slave的登录密码,验证通过后他会自动将

authorized_keys

文件复制到slave结点

image-20220501135726126

此时我们在slave结点输入

cd ~/

ls

命令即可看见被复制过来

authorized_keys

文件

image-20220501140009361

2.4.2 在slave下进行操作

同样,使用

ssh-keygen -t rsa

命令生成密匙

然后,将从master复制到slave的

authorized_keys

文件移动到slave中的

.ssh

文件夹中,命令为

mv ~/authorized_keys ~/.ssh/

然后,修改slave中的

authorized_keys

文件的权限,命令:

chmod 600 ~/.ssh/authorized_keys

,修改后,我们同样可以使用上面说到的方法查看

authorized_keys

文件的权限是否修改成功

2.4.3 测试

将以上两步配置成功后,我们在master中输入

ssh slave

,如果未提示输入密码而是直接出现欢迎提示,说明配置成功

image-20220501141623776

三、安装配置JDK

注:主从机都需要进行同样操作

3.1 新建文件夹

在/usr文件夹中新建一个文件夹用来存放jdk(存放位置可以自己决定,但是后面配置环境变量等就需要注意一下改成自己的存放路径)

在终端中依次使用

sudo mkdir /usr/java

sudo mkdir /usr/java/jdk

3.2 解压jdk

在终端输入命令

sudo tar -xvf /usr/jdk-8u331-linux-x64.tar.gz -C /usr/java/jdk

将jdk解压到指定文件夹(

-C 文件夹名

即是指定解压到哪个目录)

解压完成后,我们就可以在

/usr/java/jdk

中看到一个名为

jdk1.8.0_331

的文件夹,为了一会儿配置环境变量方便,这里我们将其重命名一下

使用

sudo mv /usr/java/jdk/jdk1.8.0_331 /usr/java/jdk/jdk8

将其重命名

Tips:mv指令:移动文件与目录或重命名
基本语法:

mv oldNameFile newNameFile

(功能描述:重命名)

mv /temp/movefile /targetFolder

(功能描述:移动文件)

3.3 配置环境变量

在终端中输入

sudo vi /etc/profile

编辑profile文件(这种方式是为该系统下所有用户配置,若只想为当前用户配置则编辑

~/.bashrc

在profile文件末尾追加:

# JDK8exportJAVA_HOME=/usr/java/jdk/jdk8
exportJRE_HOME=$JAVA_HOME/jre    
exportCLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
exportPATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

# JDK 11后的环境变量配置方法exportJAVA_HOME=/usr/java/jdk-11.0.12
exportCLASSPATH=$JAVA_HOME/lib
exportPATH=$PATH:$JAVA_HOME/bin

然后按

ESC

返回正常模式,再按

:

键,输入

wq

保存退出

输入

source /etc/profile

使配置的环境变量生效

3.4 测试是否安装成功

输入命令

java -version

,出现以下提示说明成功

image-20220430225547535

注:如果我们新建一个终端窗口,再执行这个命令会出现java not found之类的错误,我们只需要重启一下虚拟机即可,因为每次当虚拟机开启时都会加载

/etc/profile

文件,从而才会加载配置的jdk环境变量

参考博客,写的挺详细的

四、安装配置Hadoop

4.1 新建文件夹

在/usr文件夹中新建一个文件夹用来存放hadoop

在终端中使用

sudo mkdir /usr/hadoop

来创建一个新文件夹

4.2 解压hadoop

在终端输入命令

sudo tar -xvf /usr/hadoop-3.2.3.tar.gz -C /usr/hadoop

将下载好的hadoop解压到指定文件夹

解压完成后,我们就可以在

/usr/hadoop

中看到一个名为

hadoop-3.2.3

的文件夹,同样为了配置环境变量方便,这里我们将其重命名一下

使用

sudo mv /usr/hadoop/hadoop-3.2.3 /usr/hadoop/hadoop

将其重命名

4.3 配置环境变量

在终端中输入

sudo vi /etc/profile

编辑profile文件(与jdk一样,这种方式是为该系统下所有用户配置,若只想为当前用户配置则编辑

~/.bashrc

在profile文件末尾追加:

exportHADOOP_HOME=/usr/hadoop/hadoop
exportCLASSPATH=$HADOOP_HOME/bin/hadoop 
exportHADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
exportPATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

然后按

ESC

返回正常模式,再按

:

键,输入

wq

保存退出

输入

source /etc/profile

使配置的环境变量生效,或是重启一下虚拟机(建议,不重启的话重新开一个终端进行测试会和测试jdk一样报错hadoop找不到的错误)

输入

hadoop version

,出现以下类似信息说明成功

image-20220501151641615

4.4 配置hadoop

(以下均在主节点master的hadoop中进行配置)

这里的操作都可以直接打开需要编辑的文件进行编辑,不需要使用vi或vim

为了快捷,除了第一小节后面的配置我都是用的文本编辑器直接编辑

这里配置的文件都在

/usr/hadoop/hadoop/etc/hadoop

文件夹中

4.4.1 配置环境变量hadoop-env.sh

/usr/hadoop/hadoop/etc/hadoop

(注意位置!!)文件夹中使用终端打开

image-20220501152420189

使用命令

vi hadoop-env.sh

,打开并编辑这个文件,在末尾添加:

# 你自己jdk的保存位置,也是你配置jdk环境变量时的java_home的值exportJAVA_HOME=/usr/java/jdk/jdk8
exportHADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native"# 这个是后面我遇到问题加的,建议直接加上

esc

回到正常模式,输入

:wq

保存退出

4.4.2 配置环境变量yarn-env.sh

这个和配置hadoop-env.sh一样,在末尾添加

export JAVA_HOME=/usr/java/jdk/jdk8

即可

4.4.3 配置核心组件core-site.xml

使用文本编辑器打开并编辑core-site.xml文件,在标签中添加:

<property><name>fs.defaultFS</name><value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name><value>/usr/hadoop/hadoop/tmp</value><!--不需要我们提前建好文件夹,如果没有,等会儿格式化名称节点时它会帮我们自动创建--></property>

4.4.4 配置文件系统hdfs-site.xml

使用文本编辑器打开并编辑hdfs-site.xml文件,在标签中添加:

<property><name>dfs.replication</name><value>1</value><!--对于Hadoop的分布式文件系统HDFS而言,一般都是采用冗余存储,冗余因子通常为3,也就是说,一份数据保存三份副本。但是,本教程只有一个Slave节点作为数据节点,即集群中只有一个数据节点,数据只能保存一份,所以,dfs.replication的值还是设置为 1--></property><property><name>dfs.namenode.name.dir</name><value>/usr/hadoop/hadoop/tmp/dfs/name</value><!--不需要我们提前建好文件夹,如果没有,等会儿格式化名称节点时它会帮我们自动创建--></property><property><name>dfs.datanode.data.dir</name><value>/usr/hadoop/hadoop/tmp/dfs/data</value><!--不需要我们提前建好文件夹,如果没有,等会儿格式化名称节点时它会帮我们自动创建--></property><property><name>dfs.namenode.http-address</name><value>master:50070</value></property>

4.4.5 配置文件系统yarn-site.xml

使用文本编辑器打开并编辑yarn-site.xml文件,在标签中添加:

<property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.resourcemanager.hostname</name><value>master</value></property><property><name>yarn.resourcemanager.address</name><value>master:18040</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>master:18030</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>master:18025</value></property><property><name>yarn.resourcemanager.admin.address</name><value>master:18141</value></property><property><name>yarn.resourcemanager.webapp.address</name><value>master:18088</value></property><property><!--这一点是后面我测试的时候出错添加的,如果不加后面测试可能会出现找不到或无法加载主类 org.apache.hadoop.mapreduce.v2.app.MRAppMaster的错误--><!--这个配置的值可以通过hadoop classpath命令获取,然后将其复制到此处,后面的mapred-site.xml文件中也添加了这个配置,但是name不一样--><name>yarn.application.classpath</name><value>/usr/hadoop/hadoop/etc/hadoop:/usr/hadoop/hadoop/share/hadoop/common/lib/*:/usr/hadoop/hadoop/share/hadoop/common/*:/usr/hadoop/hadoop/share/hadoop/hdfs:/usr/hadoop/hadoop/share/hadoop/hdfs/lib/*:/usr/hadoop/hadoop/share/hadoop/hdfs/*:/usr/hadoop/hadoop/share/hadoop/mapreduce/lib/*:/usr/hadoop/hadoop/share/hadoop/mapreduce/*:/usr/hadoop/hadoop/share/hadoop/yarn:/usr/hadoop/hadoop/share/hadoop/yarn/lib/*:/usr/hadoop/hadoop/share/hadoop/yarn/*
</value></property>

4.4.6 配置计算框架mapred-site.xml

使用文本编辑器打开并编辑mapred-site.xml文件,在标签中添加:

<property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapreduce.jobhistory.address</name><value>master:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name><value>master:19888</value></property><property><name>yarn.app.mapreduce.am.env</name><value>HADOOP_MAPRED_HOME=/usr/hadoop/hadoop</value></property><property><name>mapreduce.map.env</name><value>HADOOP_MAPRED_HOME=/usr/hadoop/hadoop</value></property><property><name>mapreduce.reduce.env</name><value>HADOOP_MAPRED_HOME=/usr/hadoop/hadoop</value></property><property><!--这一点是后面我测试的时候出错添加的,如果不加可能会出现找不到或无法加载主类 org.apache.hadoop.mapreduce.v2.app.MRAppMaster的错误--><!--这个配置的值可以通过hadoop classpath命令获取,然后将其复制到此处--><name>mapreduce.application.classpath</name><value>/usr/hadoop/hadoop/etc/hadoop:/usr/hadoop/hadoop/share/hadoop/common/lib/*:/usr/hadoop/hadoop/share/hadoop/common/*:/usr/hadoop/hadoop/share/hadoop/hdfs:/usr/hadoop/hadoop/share/hadoop/hdfs/lib/*:/usr/hadoop/hadoop/share/hadoop/hdfs/*:/usr/hadoop/hadoop/share/hadoop/mapreduce/lib/*:/usr/hadoop/hadoop/share/hadoop/mapreduce/*:/usr/hadoop/hadoop/share/hadoop/yarn:/usr/hadoop/hadoop/share/hadoop/yarn/lib/*:/usr/hadoop/hadoop/share/hadoop/yarn/*
</value></property>

4.4.7 配置主从结点

使用文本编辑器打开并编辑workers文件(hadoop版本3.x以下是slaves文件),将其中的localhost修改为slave即可

4.5 复制到从节点slave

我们在

/usr/hadoop

文件夹中使用终端打开,然后使用命令

scp -r hadoop 你的用户名@slave:/usr/hadoop/

将配置好的hadoop整个文件夹复制到从节点slave中(因为我们已经配置好了ssh免密登录,所以可以直接复制过去,记得复制过去后在slave中也要配置好hadoop的环境变量!!!

由于我master和slave节点对jdk和hadoop的存放位置及配置都一样,所以在slave中我就不需要再做其它修改了

image-20220501163515256

等待一会儿即可复制完成

4.6 启动Hadoop集群

启动hadoop集群只需要在master节点下进行即可

/usr/hadoop/hadoop/bin

中打开终端

image-20220501165827074

执行命令

hdfs namenode -format

,如果中间出现提示,按提示输入

Y

yes

即可(这个只需要在第一次启动集群时执行一次,以后启动就不需要执行了)

image-20220501170056265

执行完成后,再进入

/usr/hadoop/hadoop/sbin

文件夹中执行

start-all.sh

image-20220501170359974

在主节点master使用命令

jps

查看进程是否启动,出现了如下几个进程

image-20220501231624470

再在从节点slave中使用

jps

查看,出现如下几个进程

image-20220501171940540

然后,我们在master节点中打开firefox浏览器,输入

http://master:50070/

,如图所示

image-20220501172346442

再输入

http://master:18088/

,如图所示

image-20220501172440779

我们还可以在master节点中使用命令

hdfs dfsadmin -report

查看数据节点是否正常启动,如果屏幕信息中的“Live datanodes”不为 0 ,则说明集群启动成功。由于我们只有1个slave节点充当数据节点,因此,数据节点启动成功以后,会显示如下图所示信息

image-20220501232116810

最后,再进入到

/usr/hadoop/hadoop/share/hadoop/mapreduce

文件夹中,执行

hadoop jar /usr/hadoop/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.3.jar pi 10 10

测试PI实例

image-20220501172828082

正常的情况下应该是类似这样的:

IMG_20220501_233122
但是因为遇到一个问题(我在4.7中第4点提到的)一直解决不了,也就运行不出来

4.7 启动中遇到的问题

1、当我在

/usr/hadoop/hadoop/sbin

文件夹中执行

start-all.sh

命令时,虽然启动成功了,但是出现

WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

的警告,这也导致了我在测试PI实例时也报错,说明其没有加载hadoop的本地库,我们只需在

hadoop-env.sh

文件中添加

export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native"

即可

2、启动hadoop后,测试PI实例出现了

找不到或无法加载主类 org.apache.hadoop.mapreduce.v2.app.MRAppMaster

,此错误的解决方法就是在

yarn-site.xml

mapred-site.xml

文件添加

classpath

值,而

classpath

的值通过

hadoop classpath

命令获取,这里在4.4.5和4.4.6已经提到过

3、当我多次测试PI实例出现报错

org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create directory /user/xk/QuasiMonteCarlo_1651405036380_1661124003/in. Name node is in safe mode

,原因:安全模式是hdfs所处的一种特殊状态,在这种状态下,文件系统只接受读数据请求,而不接受删除、修改等变更请求

解决方法:执行改命令关闭安全模式

hdfs dfsadmin -safemode leave

4、解决完上面的问题后再测试PI实例报错

ipc.Client: Retrying connect to server: slave/192.168.228.129:41589. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=3, sleepTime=1000 MILLISECONDS)

,造成这个问题的原因在C站的文章评论中已经有小伙伴提出来了,原因是pi后面的10 10让机器太久没跑出来导致崩溃了(应该是这个原因),所以将10 10改成两个小一点的数就OK了。

教程中对hadoop的配置项有点多,我也是把几篇参考教程里面的综合起来的,至于为什么,有什么用,除了有几个配置项是知道的,其他也不是很清楚,这个就需要大家去参考参考官方文档😆

以上就是搭建hadoop分布式集群的全部内容了

标签: hadoop ubuntu

本文转载自: https://blog.csdn.net/xk1835217729/article/details/124535639
版权归原作者 夜雨声烦ikkk 所有, 如有侵权,请联系我们删除。

“Ubuntu下搭建Hadoop分布式集群”的评论:

还没有评论