在启动HDFS 的时候执行start-dfs.sh脚本的时候出现如下问题
[root@node01 sbin]# ./start-dfs.sh
WARNING: HADOOP_SECURE_DN_USER has been replaced by HDFS_DATANODE_SECURE_USER. Using value of HADOOP_SECURE_DN_USER.
Starting namenodes on [node01]
上一次登录:一 10月 24 17:11:04 CST 2022pts/1 上
node01: ERROR: JAVA_HOME is not set and could not be found.
Starting datanodes
上一次登录:一 10月 24 17:12:22 CST 2022pts/1 上
node01: ERROR: JAVA_HOME is not set and could not be found.
node02: ERROR: JAVA_HOME is not set and could not be found.
node03: ERROR: JAVA_HOME is not set and could not be found.
Starting secondary namenodes [node03]
上一次登录:一 10月 24 17:12:23 CST 2022pts/1 上
node03: ERROR: JAVA_HOME is not set and could not be found.
由于集群是新搭建的,所以需要在hadoop-env,sh中添加java的路径
解决方案
1、我们首先查看系统JAVA_HOME
echo $JAVA_HOME
linux系统输出
/usr/lib/java/jdk1.8.0_202
2、进入到hadoop安装目录下的$HADOOP_HOME/etc/hadoop 目录下
进入到hadoop-env.sh中
vim hadoop-env.sh
3、在文件中添加如下内容(当前linux环境变量)
export JAVA_HOME=/usr/lib/java/jdk1.8.0_202
4、修改后把hadoop-env.sh这个配置文件同步到所有hadoop节点
5、重新执行start-dfs.sh即可
版权归原作者 一杯咖啡半杯糖 所有, 如有侵权,请联系我们删除。