0


【Hadoop】大数据开发环境配置

【Hadoop】大数据开发环境配置

文章目录

1 设置静态ip

  • 进入ifcfg-ens33文件vi /etc/sysconfig/network-scripts/ifcfg-ens33
  • 先修改BOOTPROTO参数,将之前的dhcp改为static;BOOTPROTO="static"
  • IPADDR中192.168.152是取自虚拟机中虚拟网络编辑器中子网地址的值,最后的100是自定义的,这个值可以取3~254之间的任意一个数值;在这里插入图片描述IPADDR=192.168.152.100
  • GATEWAYDNS1设置为网关IP;GATEWAY=192.168.152.2 DNS1=192.168.152.2

2 设置主机名

  1. 先设置临时主机名[root@bigdata01 ~]# hostname bigdata01
  2. 设置永久主机名并生效[root@bigdata01 ~]# vi /etc/hostname bigdata01[root@bigdata01 ~]# source /etc/hostname
  3. 验证主机名[root@bigdata01 ~]# hostname bigdata01

3 关闭防火墙

因为在后面我们会使用到多台机器,如果不关闭防火墙,会遇到机器之间无法通信的场景。

  1. 临时关闭[root@bigdata01 ~]# systemctl stop firewalld
  2. 永久关闭[root@bigdata01 ~]# systemctl disable firewalld
  3. 验证防火墙状态[root@bigdata01 ~]# systemctl list-unit-files | grep firewalld firewalld.service disabled

4 ssh免密码登录

hadoop集群就会使用到ssh,我们在启动集群的时候只需要在一台机器上启动就行,然后hadoop会通过ssh连到其它机器,把其它机器上面对应的程序也启动起来,为了不用每次输入密码,所以现在需要实现ssh免密码登录。

  1. 生成密钥> 过程中连按四次回车不输入任何字符,执行以后会在~/.ssh目录下生产对应的公钥和秘钥文件。[root@bigdata01 ~]# ssh-keygen -t rsa[root@bigdata01 ~]# ll ~/.ssh/
  2. 把公钥拷贝到需要免密码登录的机器上面[root@bigdata01 ~]# cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  3. 验证免密登录[root@bigdata01 ~]# ssh bigdata01Last login: Tue Apr 7 15:05:55 2020 from 192.168.182.1

5 JDK配置

  1. 下载JDK安装包并传输到预安装目录(以/data/soft路径为例)> JDK下载地址:https://www.oracle.com/java/technologies/downloads/```[root@bigdata01 ~]# mkdir -p /data/soft[root@bigdata01 soft]# lltotal 189496 -rw-r--r--. 1 root root 194042837 Apr 6 23:14 jdk-8u202-linux-x64.tar.gz```
  2. 解压安装包[root@bigdata01 soft]# tar -zxvf jdk-8u202-linux-x64.tar.gz
  3. 配置环境变量> 在/etc/profile文件末尾添加如下代码。[root@bigdata01 soft]# vi /etc/profile.....export JAVA_HOME=/data/soft/jdk1.8 export PATH=.:$JAVA_HOME/bin:$PATH[root@bigdata01 soft]# source /etc/profile
  4. 验证[root@bigdata01 soft]# java -version java version "1.8.0_202"Java(TM) SE Runtime Environment (build 1.8.0_202-b08)Java HotSpot(TM) 64-Bit Server VM (build 25.202-b08, mixed mode)

6 hadoop安装并配置

这篇博客中配置的环境包含三个虚拟机节点:

  • 192.168.152.100 bigdata01
  • 192.168.152.101 bigdata02
  • 192.168.152.102 bigdata03

其中bigdata01作为主节点(namenode),bigdata02和bigdata03作为从节点(datanode)。

6.1 集群节点之间时间同步

集群只要涉及到多个节点的就需要对这些节点做时间同步,如果节点之间时间不同步相差太多,会应该集群的稳定性,甚至导致集群出问题。使用

ntpdate -u ntp.sjtu.edu.cn

可以实现时间同步,但是执行的时候若提示不存在ntpdate命令则执行

yum install -y ntpdate

下载。我们将该命令添加到linux的crontab定时器中,使其每分钟同步一次时间:执行

crontab -e

命令后,写入

* * * * * /usr/sbin/ntpdate -u ntp.sjtu.edu.cn

即可。将上述操作在三个虚拟机中都执行一遍

[root@bigdata01 hadoop-3.3.5]# systemctl status crond
● crond.service - Command Scheduler
   Loaded: loaded (/usr/lib/systemd/system/crond.service; enabled; vendor preset: enabled)
   Active: active (running) since Thu 2023-06-15 09:47:16 CST; 12h ago
 Main PID: 6559 (crond)
   CGroup: /system.slice/crond.service
           └─6559 /usr/sbin/crond -n

Jun 15 09:47:16 bigdata01 systemd[1]: Started Command Scheduler.
Jun 15 09:47:16 bigdata01 crond[6559]: (CRON) INFO (RANDOM_DELAY will be scaled with factor 34% if used.)
Jun 15 09:47:17 bigdata01 crond[6559]: (CRON) INFO (running with inotify support)
[root@bigdata01 hadoop-3.3.5]# crontab -l
no crontab for root
[root@bigdata01 hadoop-3.3.5]# crontab -e
no crontab for root - using an empty one
crontab: installing new crontab
[root@bigdata01 hadoop-3.3.5]# crontab -l
* * * * * /usr/sbin/ntpdate -u ntp.sjtu.edu.cn

6.2 SSH免密码登录完善

之前配置的免密码登录,只实现了自己免密码登录自己,最终需要实现主节点可以免密码登录到所有节点,所以还需要完善免密码登录操作。将公钥信息从主节点拷贝到两个从节点即可。

在bigdata01中执行:

[root@bigdata01 ~]# scp ~/.ssh/authorized_keys bigdata02:~/
[root@bigdata01 ~]# scp ~/.ssh/authorized_keys bigdata03:~/

在bigdata02中执行:

[root@bigdata02 ~]# cat ~/authorized_keys >> ~/.ssh/authorized_keys

在bigdata03中执行:

[root@bigdata03 ~]# cat ~/authorized_keys >> ~/.ssh/authorized_keys

在bigdata01节点验证效果:

[root@bigdata01 ~]# ssh bigdata02 Last login: Tue Apr 7 21:33:58 2020 from bigdata01 
[root@bigdata02 ~]# exit
logout 
Connection to bigdata02 closed. 
[root@bigdata01 ~]# ssh bigdata03 Last login: Tue Apr 7 21:17:30 2020 from 192.168.182.1 
[root@bigdata03 ~]# exit 
logout 
Connection to bigdata03 closed.

6.3 hadoop配置

  1. 在bigdata01虚拟机中,把hadoop的安装包上传到预安装目录(以/data/soft路径为例)[root@bigdata01 soft]# lltotal 527024-rw-r--r--. 1 root root 345625475 Jul 19 2019 hadoop-3.2.0.tar.gzdrwxr-xr-x. 7 10 143 245 Dec 16 2018 jdk1.8-rw-r--r--. 1 root root 194042837 Apr 6 23:14 jdk-8u202-linux-x64.tar.gz
  2. 在bigdata01虚拟机中,解压hadoop安装包> hadoop目录下面有两个重要的目录,一个是bin目录,一个是sbin目录> > > - bin目录:存放hdfs,yarn等脚本,后期用于操作hadoop集群中的hdfs和yarn组件;> - sbin目录:存放以start和stop开头的脚本,负责启动或者停止集群中的组件。[root@bigdata01 soft]# tar -zxvf hadoop-3.2.0.tar.gz
  3. 在bigdata01、bigdata02、bigdata03虚拟机中,分别配置环境变量> 其中> > JAVA_HOME> > 等相关配置是前文配置的JAVA环境变量,因此记得在三个节点也都安装java。[root@bigdata01 hadoop-3.2.0]# vi /etc/profile....... export JAVA_HOME=/data/soft/jdk1.8 export HADOOP_HOME=/data/soft/hadoop-3.2.0export PATH=.:$JAVA_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$PATH[root@bigdata01 hadoop-3.2.0]# source /etc/profile
  4. 在bigdata01虚拟机中,修改Hadoop相关配置文件1. 进入配置文件所在目录(etc/hadoop/[root@bigdata01 hadoop-3.2.0]# cd etc/hadoop/ [root@bigdata01 hadoop]#2. 修改hadoop-env.sh文件> JAVA_HOME:指定java的安装位置> HADOOP_LOG_DIR:hadoop的日志的存放目录...export JAVA_HOME=/data/soft/jdk1.8export HADOOP_LOG_DIR=/data/hadoop_repo/logs/hadoop3. 修改 core-site.xml 文件> 注意 fs.defaultFS 属性中的主机名需要和你配置的主机名保持一致<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://bigdata01:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/data/hadoop_repo</value> </property> </configuration>4. 修改hdfs-site.xml文件> 把hdfs中文件副本的数量设置为2,因为现在分布集群中有两个从节点<configuration> <property> <name>dfs.replication</name> <value>2</value> </property> </configuration>5. 修改mapred-site.xml文件> 设置mapreduce使用的资源调度框架<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property></configuration>6. 修改yarn-site.xml文件> 设置yarn上支持运行的服务和环境变量白名单,针对分布式集群在这个配置文件中还需要设置resourcemanager的hostname,否则nodemanager找不到resourcemanager节点。<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.env-whitelist</name><value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>bigdata01</value> </property></configuration>7. 修改workers文件> 设置集群中从节点的主机名信息bigdata02bigdata038. 修改start-dfs.sh和stop-dfs.sh文件,将如下代码增添到该文件前面[root@bigdata01 hadoop-3.2.0]# cd sbin/ [root@bigdata01 sbin]# vi start-dfs.sh HDFS_DATANODE_USER=root HDFS_DATANODE_SECURE_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root[root@bigdata01 sbin]# vi stop-dfs.sh HDFS_DATANODE_USER=root HDFS_DATANODE_SECURE_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root9. 修改start-yarn.sh和stop-yarn.sh文件,将如下代码增添到该文件前面[root@bigdata01 sbin]# vi start-yarn.shYARN_RESOURCEMANAGER_USER=rootHADOOP_SECURE_DN_USER=yarnYARN_NODEMANAGER_USER=root[root@bigdata01 sbin]# vi stop-yarn.shYARN_RESOURCEMANAGER_USER=rootHADOOP_SECURE_DN_USER=yarnYARN_NODEMANAGER_USER=root10. 把bigdata01节点上将修改好配置的安装包拷贝到其他两个从节点[root@bigdata01 sbin]# cd /data/soft/[root@bigdata01 soft]# scp -rq hadoop-3.2.0 bigdata02:/data/soft/ [root@bigdata01 soft]# scp -rq hadoop-3.2.0 bigdata03:/data/soft/11. 仅在bigdata01中,格式化HDFS> 如果能看到successfully formatted这条信息就说明格式化成功了。如果提示错误,一般都是因为配置文件的问题,当然需要根据具体的报错信息去分析问题。> > 注意:格式化操作只能执行一次,如果格式化的时候失败了,可以修改配置文件后再执行格式化,如果格式化成功了就不能再重复执行了,否则集群就会出现问题。如果确实需要重复执行,那么需要把/data/hadoop_repo目录中的内容全部删除,再执行格式化。[root@bigdata01 soft]# cd /data/soft/hadoop-3.2.0 [root@bigdata01 hadoop-3.2.0]# bin/hdfs namenode -format
  5. 启动集群,在bigdata01节点上执行下面命令[root@bigdata01 hadoop-3.3.5]# sbin/start-all.shStarting namenodes on [bigdata01]Last login: Thu Jun 15 22:10:23 CST 2023 on pts/0Starting datanodesLast login: Thu Jun 15 23:31:46 CST 2023 on pts/0bigdata02: WARNING: /data/hadoop_repo/logs/hadoop does not exist. Creating.bigdata03: WARNING: /data/hadoop_repo/logs/hadoop does not exist. Creating.Starting secondary namenodes [bigdata01]Last login: Thu Jun 15 23:31:50 CST 2023 on pts/0Starting resourcemanagerLast login: Thu Jun 15 23:31:54 CST 2023 on pts/0Starting nodemanagersLast login: Thu Jun 15 23:32:01 CST 2023 on pts/0You have new mail in /var/spool/mail/root
  6. 验证集群> 分别在3台机器上执行jps命令[root@bigdata01 hadoop-3.3.5]# jps26115 SecondaryNameNode25812 NameNode26372 ResourceManager26716 Jps``````[root@bigdata02 soft]# jps17120 NodeManager17251 Jps17022 DataNode``````[root@bigdata03 ~]# jps9556 Jps9401 NodeManager9294 DataNode
  7. 停止集群[root@bigdata01 hadoop-3.3.5]# sbin/stop-all.shStopping namenodes on [bigdata01]Last login: Thu Jun 15 23:32:04 CST 2023 on pts/0Stopping datanodesLast login: Thu Jun 15 23:38:39 CST 2023 on pts/0Stopping secondary namenodes [bigdata01]Last login: Thu Jun 15 23:38:41 CST 2023 on pts/0Stopping nodemanagersLast login: Thu Jun 15 23:38:43 CST 2023 on pts/0Stopping resourcemanagerLast login: Thu Jun 15 23:38:47 CST 2023 on pts/0

至此,Hadoop大数据开发环境配置完毕!


本文转载自: https://blog.csdn.net/qq_43510916/article/details/131237779
版权归原作者 chaoql 所有, 如有侵权,请联系我们删除。

“【Hadoop】大数据开发环境配置”的评论:

还没有评论