在搭建完hadoop集群时,初次启动HDFS集群,需要对主节点进行格式化操作,其本质是清理和做一些准备工作,因为此时的HDFS在物理上还是存在的。而且主节点格式化操作只能进行一次。
那我们在格式化时,不小心格式化多次,就会导致主从节点之间互相不识别。然后导致启动hadoop集群时,主节点的namenode进程可能不会启动或者从节点的datanode可能不会启动
解决方案:
我们在配置hadoop的配置文件core-site.xml时,其中有一组参数hadoop.tmp.dir,它的值指定的是配置hadoop的临时目录
我们把tmp目录删除,再重新格式化即可。
先进入/export/servers/hadoop/文件目录 ,然后执行命令rm -rf tmp(每台机器都要删除tmp目录)
再执行命令hdfs namenode -format(此步只需要在主节点上执行)
出现“successfully formatted”则说明格式化成功。
此时在主节点上执行命令start-all.sh脚本一件启动集群
再在三台节点上分别输入命令jps查看进程,主节点master上有ResourceManager,NameNode,DataNode以及NodeManager四个进程;从节点slave1上有NodeManager,SecondaryNameNode以及DataNode三个 进程;从节点slave2上有DataNode以及NodeManager两个进程,则说明集群启动正常
版权归原作者 思思冲鸭 所有, 如有侵权,请联系我们删除。