0


hadoop搭建,jps没有datanode节点解决办法(实用简化版)

本人情况:Hadoop分布式搭建,有主节点master,从节点slave01,ssh和相关映射已经弄好

问题:master节点正常启动,slave01节点datanode无法启动

解决办法:

办法1.在slave01中,手动启动datanode

hadoop-daemon.sh start datanode

办法2(推荐).删除master节点 usr/local/hadoop/dfs目录下的data和name目录,然后创建新的data,name

cd /usr/local/hadoop/dfs
rm -rf data
rm -rf name
mkdir data
mkdir name

删除master节点 usr/local/hadoop目录下的logs,然后创建新的logs

cd /usr/local/hadoop
rm -rf logs
mkdir logs

最后对Hadoop初始化,请确保此时hadoop没有启动

hdfs namenode -format

启动hadoop,有datanode:

(若仍报错,请检查usr/local/hadoop/etc/hadoop目录下配置文件,确保文件路径正确,都可以打开)


本文转载自: https://blog.csdn.net/weixin_73692048/article/details/139234634
版权归原作者 天行云白 所有, 如有侵权,请联系我们删除。

“hadoop搭建,jps没有datanode节点解决办法(实用简化版)”的评论:

还没有评论