0


搭建hadoop初次格式化 格式化了很多次报错解决方案(亲测好用)

在搭建完hadoop集群时,初次启动HDFS集群,需要对主节点进行格式化操作,其本质是清理和做一些准备工作,因为此时的HDFS在物理上还是存在的。而且主节点格式化操作只能进行一次。
那我们在格式化时,不小心格式化多次,就会导致主从节点之间互相不识别。然后导致启动hadoop集群时,主节点的namenode进程可能不会启动或者从节点的datanode可能不会启动

解决方案:

我们在配置hadoop的配置文件core-site.xml时,其中有一组参数hadoop.tmp.dir,它的值指定的是配置hadoop的临时目录

我们把tmp目录删除,再重新格式化即可。

先进入/export/servers/hadoop/文件目录 ,然后执行命令rm -rf tmp(每台机器都要删除tmp目录)

再执行命令hdfs namenode -format(此步只需要在主节点上执行)
出现“successfully formatted”则说明格式化成功。

此时在主节点上执行命令start-all.sh脚本一件启动集群

再在三台节点上分别输入命令jps查看进程,主节点master上有ResourceManager,NameNode,DataNode以及NodeManager四个进程;从节点slave1上有NodeManager,SecondaryNameNode以及DataNode三个 进程;从节点slave2上有DataNode以及NodeManager两个进程,则说明集群启动正常


本文转载自: https://blog.csdn.net/weixin_44961033/article/details/132953984
版权归原作者 思思冲鸭 所有, 如有侵权,请联系我们删除。

“搭建hadoop初次格式化 格式化了很多次报错解决方案(亲测好用)”的评论:

还没有评论