0


震惊Hadoop伪分布式+spark+scala竟如此简单!

一、搭建伪分布式本次实验环境:

1、一台centos7 64位
2、主机名位master
3、ip 地址:192.168.20.11
4、本次实验需要的安装包

二、 伪分布式搭建前的准备

1.关闭防火墙:systemctl stop firewalld

2.修改主机名,添加主机映射:

hostnamectl set-hostname master

vi /etc/hosts

192.168.20.11 master

ping master查看是否成功

三、安装jdk:

cd /opt
tar -zxvf jdk-8u152-linux-x64.tar.gz

mv jdk1.8.0_152/ jdk

vi /etc/profile

在最后加上

export JAVA_HOME=/opt/jdk #这里是opt目录
export PATH=:$PATH:$JAVA_HOME/bin

source /etc/profile使环境变量生效

验证是否安装成功
验证:

java -version

四、搭建hadoop伪分布式

cd /opt

tar -zxvf hadoop-2.7.1.tar.gz

cd /opt/hadoop/etc/hadoop/

修改 hadoop-env.sh

在最后加上export JAVA_HOME=/opt/jdk

修改 core-site.xml

<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/opt/hadoop/tmp</value> </property> <property> <name>fs.trash.interval</name> <value>1440</value> </property> </configuration> ![](https://img-blog.csdnimg.cn/direct/fb2e059ffa2d4e66ba8ae18e5fce06a1.png)

修改 hdfs-site.xml 将dfs.replication设置为1

<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property> </configuration>

修改文件yarn-site.xml

<configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>master</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> <property> <name>yarn.log-aggregation.retain-seconds</name> <value>604800</value> </property> </configuration>

修改 mapred-site.xml

cp mapred-site.xml.template mapred-site.xml

vi mapred-site.xml

<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>master:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>master:19888</value> </property> </configuration> ![](https://img-blog.csdnimg.cn/direct/5a5f8b7715104a70b6e8849d77533738.png)

修改环境变量
Vim /etc/profile

export JAVA_HOME=/opt/jdk
export HADOOP_HOME=/opt/hadoop
export PATH=:$PATH:$JAVA_HOME/bin
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

使环境变量生效

source /etc/profile
初始化hadoop集群

hadoop namenode -format

初始化成功
到 hadoop 的sbin目录启动hadoop

cd /opt/hadoop/sbin/

./start-all.sh

验证

jps

出现以上java节点 Hadoop伪分布式就搭建成功了

验证hdfs:可以登录浏览器地址:192.168.20.11:50070 (ip地址是master的地址)
看到下面页面证明 hdfs装好了

验证yarn

http://192.168.20.11:8088/

五、安装spark

cd /opt

tar -zxvf spark-2.0.0-bin-hadoop2.6.tgz
mv spark-2.0.0-bin-hadoop2.6 spark

cd /opt/spark/conf/
cp spark-env.sh.template spark-env.sh

vi spark-env.sh

在文件末尾加上

export JAVA_HOME=/opt/jdk
export HADOOP_HOME=/opt/hdaoop
export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop
export SPARK_MASTER_IP=master
export SPARK_LOCAL_IP=master

切换到spark安装目录的/sbin目录下启动spark集群

cd /opt/spark/sbin/

./start-all.sh

浏览器输入192.168.20.11:8080如果出现下面界面代表成功

cd /opt/spark/bin

spark-shell

如果进入以下界面代表成功

六、安装scala:

cd /opt

tar -zxvf scala-2.11.8.tgz

mv scala-2.11.8 scala
修改环境变量
Vim /etc/profile

export SCALA_HOME=/opt/scala
export PATH=$PATH:$SCALA_HOME/bin

使环境变量生效

source /etc/profile

输入scala

进入以下界面代表成功

标签: 分布式 hadoop spark

本文转载自: https://blog.csdn.net/z1843911620/article/details/138190420
版权归原作者 z1843911620 所有, 如有侵权,请联系我们删除。

“震惊Hadoop伪分布式+spark+scala竟如此简单!”的评论:

还没有评论