0


spark的保姆级配置教程

前提准备

Linux:CentOS-7-x86_64-DVD-1708.iso

Hadoop:hadoop-2.7.3.tar.gz

Java:jdk-8u181-linux-x64.tar.gz

Anaconda:Anaconda3-2021.11-Linux-x86_64.sh

Spark:spark-2.4.0-bin-without-hadoop.tgz

(一) Hadoop集群搭建

观看我的另一篇文章:

https://blog.csdn.net/2202_75334392/article/details/132863607?spm=1001.2014.3001.5502

(二)Anaconda环境搭建

可以观看我的另一篇文章:

https://blog.csdn.net/2202_75334392/article/details/133420659?spm=1001.2014.3001.5502

(三)创建pyspark环境

conda create -n pyspark python=3.6  # 基于python3.6创建pyspark虚拟环境
conda activate pyspark      # 激活pyspark虚拟环境

pip下载pyhive、pyspark、jieba包

pip install pyspark==2.4.0 jieba pyhive -i https://pypi.tuna.tsinghua.edu.cn/simple

(四)Spark Local模式搭建

1.Spark下载、上传和解压

该环境搭建spark使用spark-2.4.0版本

下载地址:Index of /dist/spark/spark-2.4.0

2.上传Spark压缩包

一样运用xshell上传文件

3.解压上传好的压缩包

cd /opt/software
tar -zxvf spark-2.4.0-bin-without-hadoop.tgz -C /opt

cd /opt

解压之后进行重命名,重命名为

spark-2.4.0

mv spark-2.4.0-bin-without-hadoop/ spark-2.4.0

4.配置环境变量

vim /etc/profile

路径根据你自己的修改

export JAVA_HOME=/opt/jdk-1.8
export HADOOP_HOME=/usr/local/hadoop
export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PAT
export SPARK_HOME=/opt/spark-2.4.0
export PYSPARK_PYTHON=/opt/anaconda3/envs/pyspark/bin/python
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SPARK_HOME/bin:$PATH

vi ~/.bashrc

export JAVA_HOME=/opt/jdk-1.8
export PYSPARK_PYTHON=/opt/anaconda3/envs/pyspark/bin/python
export PATH=$JAVA_HOME/bin:$PATH

再刷新配置文件

source /etc/profile
source ~/.bashrc

(五)配置Spark配置文件

cd /opt/spark-2.4.0/conf

1.spark-env.sh

cp spark-env.sh.template spark-env.sh

在文件后面追加下面的内容
export JAVA_HOME=/opt/jdk1.8.0
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

2.测试

如果报以下错误,就输入conda activate pyspark 激活环境

成功启动是下图界面


本文转载自: https://blog.csdn.net/2202_75334392/article/details/136355422
版权归原作者 又迷茫了 所有, 如有侵权,请联系我们删除。

“spark的保姆级配置教程”的评论:

还没有评论