0


HDFS完全分布式集群搭建与配置及常见问题总结(有手就行)

HDFS完全分布式集群搭建详细步骤:

一 步骤框架

  1. 前期准备工作(准备3台虚拟机)

    1. ----将默认主机名(hostname)修改为node01node02node03
    2. ----修改每台机器/etc/hosts文件
    1. 配置环境工作

      ----分别修改Hadoop-env.sh和yarn-env.sh

      ----修改核心配置文件core-site.xml

      ----修改核心配置文件hdfs-site.xml

      ----修改核心配置文件yarn-site.xml

      ----修改核心配置文件mapred-site.xml

      ----修改配置文件slaves文件

注:这四个配置文件都存放在/opt/software/hadoop/hadoop-2.9.2这个路径下,我们需要在这个路径下去修改这些配置文件。Hadoop的安装版本是Hadoop-2.9.2

二 详细配置过程(傻瓜式配置过程)

  1. 1.检查当前环境
  2. ----网络配置
  3. ----主机名配置
  4. ----主机名映射
  5. ----防火墙与selinux的关闭
  6. ----ssh免密
  7. ----JDK的安装

注:具体详见下文

  1. 2.开始配置操作
  2. ----创建安装目录
  1. cd /opt
  2. mkdir software
  3. cd software
  4. mkdir hadoop
  5. cd hadoop/
  6. mkdir hdfs
  7. cd hdfs/
  8. mkdir data
  9. mkdir name
  10. mkdir tmp
  1. ----返回hadoop目录上传文件
  1. cd /opt/software/hadoop/
  1. ![](https://img-blog.csdnimg.cn/f945fa6779194365980681b73feff2fb.png)
  2. ----安装lrzsz插件
  1. yum -y install lrzsz

  1. ----rz#上传hadoop-2.9.2.tar.gz(或者直接将压缩包拖拽进命令行)

  1. ----将上传的文件进行解压
  1. tar -xvzf hadoop-2.9.2.tar.gz
  1. ----配置HADOOP HOME的环境变量
  1. vi /etc/profile
  1. ----打开配置文件后将以下代码键入最底部
  1. export HADOOP_HOME=/opt/software/hadoop/hadoop-2.9.2
  2. export PATH=${PATH}:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin

  1. ----刷新配置文件
  1. source /etc/profile
  1. ----测试hadoop是否安装成功
  1. hadoop version

  1. ----配置hadoop-env.sh(仅修改JAVA_HOMEHADOOP_CONF_DIR的值,其他配置不变)
  2. ----先cd进入Hadoop路径
  1. cd /opt/software/hadoop/hadoop-2.9.2/etc/hadoop/
  1. ----进入hadoop-env.sh配置文件
  1. vi hadoop-env.sh
  1. ----配置为:
  1. export JAVA_HOME=/usr/local/java/jdk1.8
  2. export HADOOP_CONF_DIR=/opt/software/hadoop/hadoop-2.9.2/etc/hadoop

  1. ----配置yarn-env.sh
  2. ----进入yarn-env.sh配置文件
  1. vi yarn-env.sh
  1. ----找到# export JAVAHOME=/home/y/libexec/jdk1.6.0/在该代码的下一行添加以下配置(注:此配置为新增值,无需修改其他配置)
  1. export JAVA_HOME=/usr/local/java/jdk1.8

  1. ----配置core-site.xml
  2. ----进入core-site.xml配置文件
  1. vi core-site.xml
  1. ----在文件底部的<configuration> </configuration>之间添加以下代码
  1. <property>
  2. <name>fs.defaultFS</name>
  3. <value>hdfs://node01:9000</value>
  4. </property>
  5. <property>
  6. <name>hadoop.tmp.dir</name>
  7. <value>/opt/software/hadoop/hdfs/tmp</value>
  8. </property>

  1. ----配置hdfs-site.xml
  2. ----进入hdfs-site.xml配置文件
  1. vi hdfs-site.xml
  1. ----在文件底部的<configuration> </configuration>之间添加以下代码
  1. <property>
  2. <name>dfs.replication</name>
  3. <value>3</value>
  4. </property>
  5. <property>
  6. <name>dfs.namenode.name.dir</name>
  7. <value>file:/opt/software/hadoop/hdfs/name</value>
  8. </property>
  9. <property>
  10. <name>dfs.datanode.data.dir</name>
  11. <value>file:/opt/software/hadoop/hdfs/data</value>
  12. </property>
  13. <property>
  14. <name>dfs.datanode.max.locked.memory</name>
  15. <value>65536</value>
  16. </property>
  17. <property>
  18. <name>dfs.permissions</name>
  19. <value>false</value>
  20. </property>

  1. ----配置mapred-site.xml
  2. ----将mapred-site.xml.template复制并重命名为mapred-site.xml文件进行配置
  1. cp mapred-site.xml.template mapred-site.xml
  1. ----进入mapred-site.xmll配置文件
  1. vi mapred-site.xml
  1. ----在文件底部的<configuration> </configuration>之间添加以下代码
  1. <property>
  2. <name>mapreduce.framework.name</name>
  3. <value>yarn</value>
  4. </property>

  1. ----配置yarn-site.xml
  2. ----进入yarn-site.xml配置文件
  1. vi yarn-site.xml
  1. ----在文件底部的<configuration> </configuration>之间添加以下代码
  1. <property>
  2. <name>yarn.resourcemanager.hostname</name>
  3. <value>node01</value>
  4. </property>
  5. <property>
  6. <name>yarn.nodemanager.aux-services</name>
  7. <value>mapreduce_shuffle</value>
  8. </property>
  9. <property>
  10. <name>yarn.nodemanager.vmem-check-enabled</name>
  11. <value>false</value>
  12. </property>

  1. ----配置三台主机名(原主机名为hostname
  1. vi slaves

  1. ----配置同步信息
  2. ----在node02node03上执行以下命令
  1. cd /opt/
  2. mkdr software
  1. ----将node01上的配置文件分发同步到node02node03上(使用scp命令进行同步)
  1. cd /opt/software/
  2. scp -r hadoop/ node02:$PWD
  3. scp -r hadoop/ node03:$PWD

显示这些表示分发成功了!

  1. ----配置环境变量
  2. ----分别在node02node03上执行以下命令
  1. cd /opt/software/hadoop/hadoop-2.9.2/etc/hadoop/

  1. vi /etc/profile
  1. ----在文件底部添加以下代码
  1. export HADOOP_HOME=/opt/software/hadoop/hadoop-2.9.2
  2. export PATH=${PATH}:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin

  1. ----配置完成后分别在node02node03上刷新配置文件
  1. source /etc/profile

三 集群的启动

  1. 1.格式化集群
  2. ----在node01上进行格式化
  1. hdfs namenode -format

  1. 2.启动集群(仅在node01上启动)
  1. start-dfs.sh
  1. 3.查看启动情况
  2. ----在node01,node02,node03上分别查看进程启动情况
  1. jsp

  1. ----在浏览器上访问web管理台:
  2. ----http://192.168.67.110:50070/​​​​​​

  1. 4.上传文件测试
  2. ----在node01hadoop路径下创建目录(test
  1. cd /opt/software/hadoop/hadoop-2.9.2/etc/hadoop/
  1. hdfs dfs -mkdir /test

  1. ----上传文件到node01
  1. cd /opt/
  2. mkdir testData
  3. cd testData/
  4. mkdir hdfs
  5. cd hdfs
  1. ----rz #上传hadoop-2.9.2.tar.gz

  1. ----把hadoop-2.9.2.tar.gz上传到分布式文件系统
  1. hdfs dfs -put hadoop-2.9.2.tar.gz /test

  1. ----文件上传成功后查看节点情况

大功告成!!!!!!

四 HDFS完全分布式集群搭建过程中常见问题总结与解决方法

  1. jps后不显示DataNode的解决办法:(多次格式化也可能会导致此状况的出现)

去到hadoop路径下,找到data后删除

分别在node02,node03上分别执行上述操作;

执行完毕后在node01中重新执行格式化操作

  1. hdfs namenode -format

在node01中启动集群,并再次键入jps查看

在node02和node03中也分别键入jps(正常结果如下图所示)

  1. 下载yum makecache出现拒绝连接问题

在命令行键入以下代码

  1. yum makecache fast

显示元数据缓存以建立则表示问题解决。

标签: hdfs 分布式 hadoop

本文转载自: https://blog.csdn.net/qq_53025556/article/details/126864631
版权归原作者 -我不是码农 所有, 如有侵权,请联系我们删除。

“HDFS完全分布式集群搭建与配置及常见问题总结(有手就行)”的评论:

还没有评论