Linux配置网络
vi /etc/sysconfig/network-scripts/ifcfg-ens33
ONBOOT=yes
BOOTPROTO=static
并增加如下几行字符
IPADDR=192.168.144.137
NETMASK=255.255.255.0
GATEWAY=192.168.144.2
DNS1=192.168.144.2
DNS2=8.8.8.8
上面改成自己的IP
重启网络服务
service network restart
ping baidu.com 实验网络是否通
yum install -y vim 安装vim
关闭防火墙
systemctl status firewalld # 查看防火墙状态
systemctl stop firewalld # 关闭防火墙
systemctl disable firewalld # 取消防火墙自启动
修改主机名称
vim /etc/hostname
hadoop (自己定义)
修改IP地址映射文件
vim /etc/hosts
192.168.50.130 hadoop <自己的ip地址> <定义的主机名>
修改windos C盘:\Windows\System32\drivers\etc\hosts 文件映射
192.168.50.130 hadoop <和上面的ip一样>
创建文件夹
mkdir app software data tools
上传hadoop jdk 文件到software
解压安装
tar -zxvf jdk-8u361-linux-x64.tar -C ~/app
tar -zxvf hadoop-3.3.1.tar.gz -C ~/app
创建软连接
(在root目录下使用)
ln -s /root/app/jdk-8u361-linux-x64 /root/app/java
ln -s /root/app/hadoop-3.3.1 /root/app/hadoop
修改系统环境变量文件
- vim /etc/profile
JAVA ENV
export JAVA_HOME=/root/app/java
export PATH=$PATH:$JAVA_HOME/bin
HADOOP ENV
export HADOOP_HOME=/root/app/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
升级一下 source /etc/profile
vim ~/.bashrc
#JAVA ENV
export JAVA_HOME=/root/app/java
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib
#HADOOP ENV
export HADOOP_HOME=/root/app/hadoop
#PATH
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
升级一下
source ~/.bashrc
安装验证
java -version
hadoop version
配置Hadoop文件
(下列配置文件中的”主机名“要改成自己的主机名称)
cd app/hadoop/etc/hadoop 文件路径
vim hadoop-env.sh
export JAVA_HOME=/root/app/java
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
vim core-site.xml
<configuration> <property>
<name>hadoop.tmp.dir</name>
<value>/root/data/tmp</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://****主机名****:9000</value>
</property>
</configuration>
vim hdfs-site.xml
<configuration> <property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/root/data/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/root/data/dfs/data</value>
</property>
<property>
<name>dfs.namenode.checkpoint.dir</name>
<value>/root/data/dfs/namesecondary</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>****主机名****:9868</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
vim mapred-site.xml
<configuration> <property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
vim yarn-site.xml
<configuration> <property>
<name>yarn.resourcemanager.hostname</name>
<value>****主机名****</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
vim workes
<自己的主机名> (完全分布的也是一样)
ssh免密登录
(可以做完全分布的时候做免密登录,也可以做伪分布的时候做)
ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
hdfs namenode -format 格式化集群服务 启动集群服务
然后jps一下看一下几个值六个是正确的
版权归原作者 SuLuo* 所有, 如有侵权,请联系我们删除。