0


搭建Hadoop集群

前提: 从母机克隆三台


一.克隆机更改 ip

  1. // [root@Hadoop 桌面]# vim /etc/udev/rules.d/70-persistent-net.rules

  1. // [root@Hadoop 桌面]# vim /etc/sysconfig/network-scripts/ifcfg-eth0

二. 检查是否更改成功

  1. // ip addr / ifconfig
  2. // 重启网络 service network restart
  3. // 重启 reboot

三. 更改主机名

  1. // [root@Hadoop 桌面]# vim /etc/sysconfig/network
  2. // 需要重启才可以生效

四.改映射

  1. // [root@Hadoop 桌面]# vim /etc/hosts
  2. // 例如:
  3. 192.168.6.77 hadoop11
  4. 192.168.6.78 hadoop22
  5. 192.168.6.79 hadoop33

五.关闭防火墙

  1. // 关闭
  2. // service iptables stop
  3. // 关闭开机自动启动
  4. // chkconfig iptables off

六.连接xshell

七.搭建hadoop集群

  1. // tar -zxf ? -C ?
  1. // hadoop1/2/3环境配置
  2. // vim /etc/profile
  3. /**
  4. #HADOOP_HOME
  5. export HADOOP_HOME=/opt/en/hadoop-2.7.2/
  6. export PATH=$PATH:$HADOOP_HOME/bin
  7. export PATH=$PATH:$HADOOP_HOME/sbin
  8. */
  9. // 刷新
  10. // source /etc/profile
  11. // 查询配置是否成功
  12. // hadoop version
  13. // 其他

八.传输给其他两台

  1. // rsync -av ? root@主机名:?
  2. // 两台:配置环境变量 + 刷新 + 测试
  3. // 其他

九.配置集群

  1. // cd /etc/hadoop/
  2. // vim core-site.xml
  3. /**
  4. <!--1、NameNode地址:ip/主机名+端口-->
  5. <property>
  6. <name>fs.defaultFS</name>
  7. <value>hdfs://Hadoop1:9000</value>
  8. </property>
  9. <!--2、Hadoop运行数据目录:地址-->
  10. <property>
  11. <name>hadoop.tmp.dir</name>
  12. <value>/opt/en/hadoop-2.7.2/data/tmp</value>
  13. </property>
  14. */
  15. // vim hadoop-env.sh
  16. // 在末尾加上
  17. /**
  18. #JAVA_HOME
  19. export JAVA_HOME=/opt/en/jdk1.8.0_144
  20. //
  21. #JAVA_HOME
  22. export JAVA_HOME=/opt/en/jdk1.8.0_144
  23. */
  1. // vim hdfs-site.xml
  2. /**
  3. <!--副本数3-->
  4. <property>
  5. <name>dfs.replication</name>
  6. <value>3</value>
  7. </property>
  8. <!--2、snn配置:主机名/ip+端口-->
  9. <property>
  10. <name>dfs.namenode.secondary.http-address</name>
  11. <value>Hadoop2:50090</value>
  12. </property>
  13. */
  14. // vim yarn-env.sh
  15. // 在末尾加上
  16. /**
  17. #JAVA_HOME
  18. export JAVA_HOME=/opt/en/jdk1.8.0_144
  19. */
  1. // vim yarn-site.xml
  2. /**
  3. <!--1、reducer的获取数据的方式-->
  4. <property>
  5. <name>yarn.nodemanager.aux-services</name>
  6. <value>mapreduce_shuffle</value>
  7. </property>
  8. <!--2、rm的位置-->
  9. <property>
  10. <name>yarn.resourcemanager.hostname</name>
  11. <value>Hadoop3</value>
  12. </property>
  13. */
  14. // vim mapred-env.sh
  15. // 在末尾加上
  16. /**
  17. #JAVA_HOME
  18. export JAVA_HOME=/opt/en/jdk1.8.0_144
  19. */
  1. // 改名
  2. // cp mapred.xml.template mapred-site.xml
  3. // vim mapred-site.xml
  4. /**
  5. <!--1.指定mr运行自YARN上-->
  6. <property>
  7. <name>mapreduce.framework.name</name>
  8. <value>yarn</value>
  9. </property>
  10. */

十.传输

  1. // rsync -av /opt/en/hadoop/ root@hadoop:/opt/en/hadoop/

十一.单启

  1. // 集群启动第一要格式化__转到hadoop目录下
  2. // hdfs namenode -format
  3. // 1
  4. // hadoop-daemon.sh start namenode
  5. // 1/2/3
  6. // hadoop-daemon.sh start datanode
  7. // jps

十二.群起

  1. // cd ~/.ssh/
  2. // ssh.keygen -t rsa
  3. // ll
  4. // 是否有 id_rsa
  5. // 传1/2/3
  6. // ssh-copy-id hadoop1/2/3
  7. // 测试
  8. // ssh hadoop2/3
  9. // 群起配置
  10. // cd /opt/en/hadoop-2.7.2/ect/hadoop/
  11. // vim slaves
  12. // 删除原所有 +
  13. /**
  14. // 对应主机名
  15. hadoop1
  16. hadoop2
  17. hadoop3
  18. */
  19. // 传输给hadoop2/3


标签: 大数据

本文转载自: https://blog.csdn.net/qq_59506101/article/details/125504072
版权归原作者 唯见长江 所有, 如有侵权,请联系我们删除。

“搭建Hadoop集群”的评论:

还没有评论