0


Hadoop单机安装配置 图文保姆级教程—保姆级配置教程—全网最全[官方手册版]

Hadoop单机安装配置 图文保姆级教程—全网最全

文章目录

声明一点,尽量跟着所有步骤一起来做,不要跳过其他步骤,比如你安装了Ubuntu,直接开始第三个Hadoop集群安装,那么我不知道你有没有下载相关的远程传输工具,其次我的Ubuntu也是英文的,所以尽量跟着我的步骤一步一步来

一、安装前需要

1.VMware安装配置:

个人博客:https://duanyx.blog.csdn.net/article/details/136539021

2.相关Hadoop软件包下载

(1)jdk-8u162-linux-x64.tar

(2)hadoop-3.1.3.tar

已分享到百度网盘:

链接:https://pan.baidu.com/s/1090ZBEQ2AFe3ZEfpuja6ig?pwd=0616
提取码:0616

3.Ubuntu镜像下载

(1).使用国内镜像下载清华大学开源软件镜像站

(2).跳转到网址后下滑页面选择 >>> ubuntu-releases

image-20240228204419645

(3).根据个人体验,推荐选择20.04版本 >>> (点击)下图框住内容即可

image-20240228204749196

(4).选择“ubuntu-20.04.4-desktop-amd64.iso”进行下载 >>> (点击)下图框住内容即可

image-20240228204908256

(5).下载后记得放置合适的位置,尽量不要放在C盘


到这里前期的准备工作就做好了,有的教程会让你安装一些远程传输工具,Ubuntu系统中其实自带的


二、Ubuntu系统安装

前提声明:已安装可忽略此步(但要有远程传输VMwareTools,和英文版的Ubuntu)

1.创建文件夹(此步为让大家安装方便,可忽略)

我在D盘放置了一个:软件,然后里面放置了一个:VMware,然后VMware中放置一个:虚拟机-Hadoop1,虚拟机Hadoop2,虚拟机镜像三个文件

不要管《虚拟机-Ubuntu》那两个文件,是我之前安装好的,看红框框即可

image-20240307194424612

2.文件操作

把下载好的镜像文件放置虚拟机镜像文件中

image-20240307194551838

3.打开Vmware

image-20240307194627120

4.点击创建新的虚拟机

image-20240307194656168

5.选择自定义

image-20240307194805348

6.默认操作

image-20240307194813310

7.稍后安装

image-20240307194841247

8.选择Linux,Ubuntu64位

image-20240307194905140

9.放置在D:\软件\VMware\虚拟机-Hadoop1文件中

image-20240307195036410

10.自定义下一步即可

image-20240307195055910

image-20240307195125261

11.使用网络地址转换

image-20240307195138962

12.默认推荐即可

image-20240307195201833

image-20240307195208571

13.创建新虚拟磁盘

image-20240307195522076

14.将虚拟机拆分成多个文件

此步中,有的教程是单文件,其实都可以,无伤大雅

image-20240307195555201

15.下一步,默认选择即可

image-20240307195734072

16.选择自定义硬件

image-20240307195901450

17.在CD/DVD中,使用ISO映像文件,选择安装好的镜像地址,并选择启动时连接

如果不选择这一步,可能会导致虚拟机找不到镜像而无法启动

image-20240307201739170

18.开启虚拟机,点击绿色小标箭头即可

image-20240307200005494

18.等待启动

image-20240307200535188

image-20240307201808914

19.选择语言,默认English,就选择Englis,然后点击Install Ubuntu

image-20240307201916533

20.点击右下角Continue

image-20240307201952796

21.点击右下角Continue

image-20240307202025132

22.点击Install Now

image-20240307202132670

23.点击Continue

image-20240307202150630

24.点击咋们国家的地图,显示:ShangHai,然后点击Continue

image-20240307202314296

25.按照下图配置

Your name和Your computer’s name,这里就按照我的来,因为大部分教程都是在你创建你自己的用户之后又重新创建名称为:Hadoop的用户,并且把computer’s name改为了Master,这里直接改,就避免多此一举了

最后选择Log in automatically(自动登陆)

点击continue

image-20240307202434673

26.等待Install,这里会比较慢

image-20240307202842888

27.选择重启:Restart Now

image-20240307204220480

注:到了黑框框的界面的之后记得回车一下,这里没有截图上

28.重启后Ubuntu系统就安装好了

image-20240309175744303


到这里Ubuntu系统就安装好了,下面是对Hadoop集群的配置


三、Hadoop单机+伪分布式配置

好多博客都会让你在开始配置的时候创建一个叫Hadoop的用户,然后修改主机名为:Master

这里咋们再下载安装Ubuntu系统的时候就已经配置好了,没必要再多余创建用户(每次开机切换登陆也很麻烦)

1.更新apt

更新一下 apt,后续我们使用 apt 安装软件,如果没更新可能有一些软件安装不了。

按 ctrl+alt+t 打开终端窗口,执行如下命令:

sudo apt-get update

输入命令后输入用户密码即可执行操作

image-20240309181103507

2.安装Vim

vim是文本编辑器,用于对文件的操作

sudo apt-get install vim

输入命令后输入Y确定即可

image-20240309181815794

3.安装SSH

输入命令后,会提示输入:Y

sudo apt-get install openssh-server

image-20240309182512156

安装后,可以使用如下命令登陆本机:

ssh localhost

此时会有如下提示(SSH首次登陆提示),输入 yes 。然后按提示输入密码 ,这样就登陆到本机了。

image-20240309182646552

4.配置SSH无密码登陆

但这样登陆是需要每次输入密码的,我们需要配置成SSH无密码登陆比较方便。

退出刚才的 ssh

exit     

回到我们原先的终端窗口

cd ~/.ssh/     

利用 ssh-keygen 生成密钥,会有提示,都按回车就可(大概3个)

ssh-keygen -t rsa        

并将密钥加入到授权中

cat ./id_rsa.pub >> ./authorized_keys  # 加入授权

image-20240309182842835

在使用ssh localhost即可无密码登陆

ssh localhost

image-20240309183014901

5.安装Java环境

注:这里的安装包下载链接都在文章开头

在安装java和hadoop时都需要使用Vmwaretools工具,跟着上述的UbUntu系统安装,VmwareTools是安装好的,这里直接使用

把下载好的jdk-8u371-linux-x64.tar.gz下载到本地电脑,保存在虚拟机的“/home/linziyu/Downloads/”目录下。

点击桌面的hadoop文件

image-20240310002840821

点击Downloads文件

image-20240310002943425

如图所示

image-20240310003017773

直接把下载好的压缩包拖动到虚拟机的Downloads文件夹内

为了下面hadoop安装的方便,也把下载好的hadoop的安装包拖动到Downloads文件夹内

如图所示

image-20240310003203525

cd /usr/lib

创建/usr/lib/jvm目录用来存放JDK文件

sudo mkdir jvm 

进入hadoop用户的主目录

cd ~ 

进入到Downloads目录下

cd Downloads 

把JDK文件解压到/usr/lib/jvm目录下

sudo tar -zxvf ./jdk-8u162-linux-x64.tar.gz -C /usr/lib/jvm  

JDK文件解压缩以后,可以执行如下命令到/usr/lib/jvm目录查看一下

cd /usr/lib/jvm
ls

image-20240418155419911

在/usr/lib/jvm目录下有个jdk1.8.0_162目录。下面继续执行如下命令,设置环境变量

cd ~
vim ~/.bashrc

上面命令使用vim编辑器打开了hadoop这个用户的环境变量配置文件,请在这个文件的开头位置,添加如下几行内容
(“i”,进入编辑)
(编辑完成后,先Esc,然后输入:wq,回车)

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

image-20240418155537221

保存.bashrc文件并退出vim编辑器。然后,继续执行如下命令让.bashrc文件的配置立即生效

source ~/.bashrc

这时,可以使用如下命令查看是否安装成功

java -version

如果能够在屏幕上返回如下信息,则说明安装成功

image-20240418155722195

至此,就成功安装了Java环境。下面就可以进入Hadoop的安装。

6.安装Hadoop

解压到/usr/local中

sudo tar -zxf ~/downloads/hadoop-3.1.3.tar.gz -C /usr/local   

将文件夹名改为hadoop

cd /usr/local/
sudo mv ./hadoop-3.1.3/ ./hadoop    

修改文件权限

sudo chown -R hadoop ./hadoop     

Hadoop 解压后即可使用。输入如下命令来检查 Hadoop 是否可用,成功则会显示 Hadoop 版本信息,如下图所示。

cd /usr/local/hadoop
./bin/hadoop version

image-20240418160209030

7.单机配置(非分布式)

此步骤为单机Hadoop的一个例子,可跳过此步骤


在此我们选择运行 grep 例子,我们将 input 文件夹中的所有文件作为输入,筛选当中符合正则表达式 dfs[a-z.]+ 的单词并统计出现的次数,最后输出结果到 output 文件夹中。

cd /usr/local/hadoop
mkdir ./input
cp ./etc/hadoop/*.xml ./input   # 将配置文件作为输入文件
./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar grep ./input ./output 'dfs[a-z.]+'
cat ./output/*          # 查看运行结果

image-20240418160622641

注意,Hadoop 默认不会覆盖结果文件,因此再次运行上面实例会提示出错,需要先将 ./output 删除

rm -r ./output

本文转载自: https://blog.csdn.net/m0_63324772/article/details/138034944
版权归原作者 小段爱开发 所有, 如有侵权,请联系我们删除。

“Hadoop单机安装配置 图文保姆级教程—保姆级配置教程—全网最全[官方手册版]”的评论:

还没有评论