0


3.Hadoop环境搭建之Hadoop的安装和配置

本文用到了xshell,xftp软件用来实现window和linux之间的连接,没有的话需要自行下载。

本文演示的是Hadoop2.7.4的下载安装。安装包需要提前准备好。

三台虚拟机,主机waq,从机s1,s2.

除13,15步有需要在从机运行的步骤,其他步骤均在主机运行。

家人们,请千万要注意路径,服务器名字,根据自己的实际情况进行修改。个别需要注意的地方已经标红,其他地方也许谨慎。

1、创建hadoop安装目录

xshell上方点击“新建文件传输”

7dc298d5db2b410ba022076012effc2b.png

在右栏/home目录下新建一个hadoop文件夹

65253db9f4da451280cd2999055aec5e.png

2、上传hadoop安装包

在左栏中找到提前准备好的hadoop压缩包

df6c177e354149cdaae3e4d1a2b87bc2.png

把左栏的压缩包拖到右栏

fc4467784b104473a55c4b0d617b6568.png

3、解压安装包

在hadoop目录下:cd /home/hadoop

解压hadoop压缩包:tar -xvf hadoop-2.7.4.tar.gz

我之前已经解压过来就不再解压了

b9a96a8621ef45178db081e47474c96b.png

4、配置/etc/profile

编辑文件:vim /etc/profile

在文件最后添加:

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

export HADOOP_HOME=/home/hadoop/hadoop-2.7.4(写自己的存放路径)

export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

保存后,执行:source /etc/profile

ed7e127f3fa04eb99f3f9c6dafb1dca4.png

cc9e1f91129b42bea99fbfae628c7841.png

10271621359448e883f43250c69e7372.png

5、配置hadoop-env.sh

到指定目录:cd /home/hadoop/hadoop-2.7.4/etc/hadoop

修改文件:vim hadoop-env.sh

在里面添加:

export JAVA_HOME=/usr/lib/java/jdk1.8

cc7ab462f7e34228b8f08aab2acc0ae9.png

c0648924f4394dfebea4e46ccb95205e.png

6、配置yarn-env.sh

到指定目录:cd /home/hadoop/hadoop-2.7.4/etc/hadoop

修改文件:vim yarn-env.sh

在里面添加:

export JAVA_HOME=/usr/lib/java/jdk1.8

11f023b65c13454b852be1ae8c5b6906.png

e8f5853726784467865f7c2edaa30245.png

******7、配置core-site.xml ******

修改文件vim core-site.xml

添加:

<property>

    <name>fs.defaultFS</name>

    <value>hdfs://waq:9000</value>

</property>

<property>

    <name>hadoop.tmp.dir</name>

    <value>file:/home/hadoop/hadoop-2.7.4/tmp</value>

</property>

<property>

    <name>io.file.buffer.size</name>

    <value>131702</value>
</property>

a0aa29186daf4d55878ac7305f5a8e4d.png

bc376fb8b1f6416a9d19c2440605c584.png

47664a6a992745be9f03f67033a6d536.png

******8、配置hdfs-site.xml ******

修改文件:vim hdfs-site.xml

添加:

<property>
<name>dfs.namenode.name.dir</name>

<value>file:/home/hadoop/hadoop-2.7.4/hdfs/name</value>
</property> <property>
<name>dfs.datanode.data.dir</name>

<value>file:/home/hadoop/hadoop-2.7.4/hdfs/data</value>
</property> <property>
    <name>dfs.replication</name>

    <value>2</value>
</property> <property>
    <name>dfs.namenode.secondary.http-address</name>

    <value>waq:9001</value>
</property> <property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

7ce4145337004eb2b14139028b955ef3.png

99bd11ee014b4ffe98bdb03bc2521299.png

******9、配置yarn-site.xml ******

修改文件:vim yarn-site.xml

添加:

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property> <property>

<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property> <property>

<name>yarn.resourcemanager.address</name>

<value>waq:8032</value>

</property> <property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>waq:8030</value>

</property> <property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>waq:8031</value>

</property> <property>

<name>yarn.resourcemanager.admin.address</name>

<value>waq:8033</value>

</property> <property>

<name>yarn.resourcemanager.webapp.address</name>

<value>waq:8088</value>

</property> <property>
 <name>yarn.nodemanager.resource.memory-mb</name>

 <value>1536</value>
</property>

2ab5683a4ffa4e638d90451992efb6c3.png

bff4d4253b914ef49218af73fa0f89f6.png

55515d557a474300bf713118f454e10b.png

******10、配置mapred-site.xml ******

修改文件名:mv mapred-site.xml.template mapred-site.xml

修改文件:vim mapred-site.xml

添加:

<property>
  <name>mapreduce.framework.name</name>

  <value>yarn</value>
</property> <property>
  <name>mapreduce.jobhistory.address</name>

  <value>waq:10020</value>
</property> <property>
  <name>mapreduce.jobhistory.webapp.address</name>

  <value>waq:19888</value>
</property>

a6ef21323f2b4e2caec55618e09799d9.png

f24429b4703b4e6dac6c190974992de1.png

3279bcceb277446e92f00119acf84157.png

11、创建slaves

修改文件:vim slaves

删除里面的hostname,并添加:

s1

s2

492bb443362c4cf29f3d98257da3435a.png

fe9d34d204b94aa68036c48d76b97b54.png

12、创建name和data

创建目录hdfs:mkdir /home/hadoop/hadoop-2.7.4/hdfs

创建目录name:mkdir /home/hadoop/hadoop-2.7.4/hdfs/name

创建目录data:mkdir /home/hadoop/hadoop-2.7.4/hdfs/data

(已建过)

aaa0a6936e464b3ba6b5da0622629286.png

1200575fb9db4958816783f95fb9e900.png

13、向从虚拟机传送hadoop文件

进入/home/目录下:cd /home/

此时在 /home/目录下,传送文件到s1和s2

scp -r hadoop root@s1:/home/

scp -r hadoop root@s2:/home/

68388538767a48d0a34c214da3ad29c0.png

00ef161002744266ae88f202990207fc.png

daba50ba25a34c649b9086ffea70ee70.png

此操作之后,要在另外两台虚拟机上,配置/etc/profile文件并source /etc/profile

s1虚拟机:

编辑文件:vim /etc/profile

在最后添加:

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

export HADOOP_HOME=/home/hadoop/hadoop-2.7.4

export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

执行:source /etc/profile

553339d12f324f83bb3fecfa27f54f3d.png

da007a88d9ed44b68af927107f7c6ce4.png

s2虚拟机:

编辑文件:vim /etc/profile

在最后添加:

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

export HADOOP_HOME=/home/hadoop/hadoop-2.7.4

export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

执行:source /etc/profile

e42027a5454d4d1b9aa3d2d5961d45da.png

842d2605b6d645358a7335f191eb297d.png

9806a8313b3e464998e1f56759a590aa.png

14、初始化

进入hadoop-2.7.4安装目录:cd /home/hadoop/hadoop-2.7.4

初始化(只此一次,不可再初始化第二次)

hdfs namenode -format

7cfb17b2a0c04630baf6d7f6be7bdee8.png

15、启动hadoop

进入hadoop-2.7.4安装目录:cd /home/hadoop/hadoop-2.7.4

启动hadoop:./sbin/start-all.sh

d1d12599584c4e4d99794337a9321ea5.png

cae59c1199614844808e05b4719944c0.png

测试启动:jps

8d78131e6800484a94c19627c4f555b4.png

e2396f6cd4a941409d16108e2f1a56a7.png

eb226954112c44778a30cd98a8332b74.png

16.通过web页面查看

在浏览器打开网站验证,http://自己的主机ip地址:8088,为ResourceManager的web控制台,正常情况下显示如下图:

95bbe0c4c4f14bbbb67f3151b8cdad50.png

http://自己的主机ip地址:50070 为hdfs web控制台,可以看到下图中展示了所有的datanode节点:

74d5bc863fd94fdfae846e72f13f9e9e.png


本文转载自: https://blog.csdn.net/2401_83253656/article/details/141996058
版权归原作者 新手小黑吖 所有, 如有侵权,请联系我们删除。

“3.Hadoop环境搭建之Hadoop的安装和配置”的评论:

还没有评论