0


详细教程-Linux上安装单机版的Hadoop

1、上传Hadoop安装包至linux并解压

tar -zxvf hadoop-2.6.0-cdh5.15.2.tar.gz

安装包:
链接:https://pan.baidu.com/s/1u59OLTJctKmm9YVWr_F-Cg
提取码:0pfj

2、配置免密码登录

生成秘钥:

ssh-keygen -t rsa -P ''

将秘钥写入认证文件:

cd ~/.ssh
cat id_rsa.pub >> ~/.ssh/authorized_keys

修改认证文件权限:

chmod 600 ~/.ssh/authorized_keys

3、配置环境变量

将Hadoop加入环境变量/etc/profile:

vi /etc/profile

4、修改Hadoop配置文件

1) 修改hadoop-env.sh文件

vi /usr/local/hadoop-2.6.0-cdh5.15.2/etc/hadoop/hadoop-env.sh

修改JAVA_HOME:(这里要改成你自己linux中的jdk路径)

export JAVA_HOME=/usr/local/jdk1.8.0_181

2)修改core-site.xml文件

<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://lcc:9090</value>
        </property>
</configuration>
  1. 修改hdfs-site.xml文件
<configuration>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/usr/local/hadoop-2.6.0-cdh5.15.2/tmp</value>
        </property>
</configuration>
  1. 修改mapred-site.xml文件
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<configuration>
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
</configuration>

5)修改slaves文件

vi slaves
 改成上面的 
**lcc(这里就是你的一个主机名,注意要在hosts文件中配置好 ip地址 主机名)**

 这里配置的是单节点, 指向本机主机名称。 


 6)修改yarn-site.xml 
<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
</configuration>

5、启动Hadoop服务

进入到sbin目录

cd /usr/local/hadoop-2.6.0-cdh5.15.2/sbin/

执行启动脚本

./start-all.sh

上传一个文件, 用于测试:

hdfs dfs -put /usr/local/hadoop-2.6.0-cdh5.15.2/etc/hadoop/hadoop-env.sh /

如果遇到如下报错:

请执行以下命令解决

再次重新执行hdfs上传即可

6、访问验证

至此Hadoop单机版安装完毕

标签: linux hadoop 运维

本文转载自: https://blog.csdn.net/qq_46248151/article/details/143927693
版权归原作者 Java 第一深情 所有, 如有侵权,请联系我们删除。

“详细教程-Linux上安装单机版的Hadoop”的评论:

还没有评论