0


Spark技术03直播笔记

spark启动与使用

如果想要启动或者使用spark
需要先执行
在这里插入图片描述

zk-startall.sh

在这里插入图片描述

jps

在这里插入图片描述
可以查看到zookeeper的进程
hadoop142、143不需要进行任何操作,已经被141启动了

start-all.sh

在这里插入图片描述

启动集群
结果
在这里插入图片描述
切换路径到spark(根据你自己的路径来)

cd/home/hadoop/spark-3.5.0

在这里插入图片描述

./sbin/start-all.sh

在这里插入图片描述
在jps查看进程,出现worker说明集群已经启动了
在这里插入图片描述

出现worker的进程代表集群已经启动,可以通过访问http://hadoop141:8989/来查看界面

在这里插入图片描述
只要能进入这个页面显示出后面三个来就没问题了,启动完成后就可以通过Standalone模式提交任务
在这里插入图片描述

[root@hadoop141 spark-3.5.0]# ./bin/spark-submit --master=spark://hadoop141:7077 ./examples/src/main/python/pi.py

它的7077指的是这个
在这里插入图片描述

确保结束后就是下面这个目录 单路径,如果不是证明有问题的 需要重修对路径解压,确保是单路径
在这里插入图片描述
敲回车执行后 出现一个正在跑的程序
在这里插入图片描述
等会 就可以看到跑出结果了
在这里插入图片描述

还可以通过yarn模式提交
在这里插入图片描述

[root@hadoop141 spark-3.5.0]# ./bin/spark-submit --master yarn --deploy-mode client ./examples/src/main/python/pi.py

还有一个是cluster模式
在这里插入图片描述

[root@hadoop141 spark-3.5.0]# ./bin/spark-submit --master yarn --deploy-mode cluster ./examples/src/main/python/pi.py

cluster的不太好看 succeeded表示成功了,然后点击ID那个点击进去
在这里插入图片描述
会有一个logs(日志),在日志里面就可以查看对应的结果了
在这里插入图片描述
在这里插入图片描述
它这个是根据你电脑性能来执行的,执行多次结果都是不会重复的

Anaconda安装以及Jupyter安装

具体操作请跳转到PySpark(超详细笔记)
往下找找 写的很详细
在这里插入图片描述
配完以后可以在xshell里去启动

jupyter notebook

在这里插入图片描述
直接访问

hadoop141:8888

在这里插入图片描述
密码是之前步骤里设置的
在这里插入图片描述
在这里插入图片描述
这里面就可以执行Python和pyspark
在这里插入图片描述
它的路径保存在设置的路径里
在这里插入图片描述
可以使用了
在这里插入图片描述
在这里插入图片描述
进入这个脚本

./bin/spark-shell

在这里插入图片描述
启动以后告诉你可以到4040去访问
在这里插入图片描述
后边提交的所有东西都会在这看得到
在这里插入图片描述
默认是本地模式执行
在这里插入图片描述
也可以别的模式操作
在这里插入图片描述
在这里插入图片描述
刷新以后再来看会发现有一个编译驱动的一个添加,证明是通过你这个东西来提交的了
在这里插入图片描述
spark session的有效值被起了一个别名叫spark 是spark session的一个对象 实例化后的一个对象
在这里插入图片描述
试着完成一个案例,通过spark的语法去创建一个0~1000之间的 列名是number的一个列表
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
回到上面来会发现有添加

然后dateframe 它是二维数组 尝试案例
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
出现stage已经在计算了
在这里插入图片描述
刷新可以看到正在运行的job
在这里插入图片描述
在这里插入图片描述
比如说在这个有向无环图里面 第一部是一个整体的一个构建
在这里插入图片描述
然后进行了一个统计计算
在这里插入图片描述
然后来到这个里面
在这里插入图片描述
首先第一步是切割你的数据,最后两个是不同的Map计算
在这里插入图片描述
往下翻可以看到记录的执行结果(18条)
这就是spark里面最简单的记录总数的一个计算
在这里插入图片描述

Pycharm

接下来需要安装Pycharm软件
在这里插入图片描述
示范 先随便创建个文件夹,然后在里面打开,对于Pycharm来说如果要访问远程集群,必须新建一个解释器
在这里插入图片描述
在main里面有一个编辑配置
在这里插入图片描述
在+号里面找到这个
在这里插入图片描述
在这里插入图片描述
如果没有的话在工具部署配置里面
在这里插入图片描述
按照这个
在这里插入图片描述
在这里插入图片描述
这个要取消掉
在这里插入图片描述
配置没有的话要配置一下
在这里插入图片描述
在这里插入图片描述
映射里本地路径不要动 部署路径更改
在这里插入图片描述
比如映射到这个里面,需要创建对应的文件
在这里插入图片描述
然后他就可以自动的映射了
在这里插入图片描述
web路径就这个不要动 然后就可以了 点击确定
在这里插入图片描述
文件设置里找到python解释器
在这里插入图片描述
在这里插入图片描述
就用刚才配好的那个通过SSH去连接
在这里插入图片描述
点击下一个
在这里插入图片描述
在这里插入图片描述
找到python3解释器的路径
在这里插入图片描述
直接点击完成
在这里插入图片描述
然后就连接上了
在这里插入图片描述
点击确定
在这里插入图片描述
他会自动完成上传
在这里插入图片描述
前面路径映射错了,可以重新修改

在这里插入图片描述
比如说在这里面新建文件wordcount
在这里插入图片描述
然后对应路径里会出现
在这里插入图片描述
接下来我们所执行的所有代码就相当于在集群里面去执行的
在这里插入图片描述
首先我们打包实现一个词频统计

importsys

在这里插入图片描述

需要先装包,这个路径下载快一点

pip3 install pyspark -i https://pypi.tuna.tsinghua.edu.cn/simple

在这里插入图片描述
安装好后,就能在这里面看到你安装的pyspark了,然后就可以写程序了
在这里插入图片描述

from pyspark.sql importSparkSession

在这里插入图片描述

spark = SparkSession.builder.master("local[*]".appName('PycharmJob').getOrCreate()print(spark)

右击运行
在这里插入图片描述
执行出来了
在这里插入图片描述
如果不对,可能是解释器映射不对,重新弄
在这里插入图片描述
调用方法获取文本路径

words = spark.sparkContext.textFile("/home/hadoop/word.txt")

在这里插入图片描述

print(words)

在这里插入图片描述
重新加一个file:就可以获取本地文件夹了
在这里插入图片描述
是通过MapPartitionsRDD去走的
在这里插入图片描述
这个可以做词频统计,pycharm进行远程提交
在这里插入图片描述
刚才有个问题我们word.txt是没有提前创建的,在这个情况下
在这里插入图片描述
在这里插入图片描述

这样是正常输出的,它调用这个方法去寻找文件,当然找不到也没有关系,没涉及到具体的操作和计算,只是一个转换过程
在这里插入图片描述
词频统计获取每一行
在这里插入图片描述
然后进行切割计算 换行用
在这里插入图片描述
相加,结果collect动作打成一个集合

在这里插入图片描述
运行结果
在这里插入图片描述
还可以通过hadoop141:7077,用的是远程了
在这里插入图片描述
计算结束网页会自动关掉
在这里插入图片描述
也可以获取hdfs上路径
在这里插入图片描述
词频统计里涉及到的
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这里就有进程
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

标签: spark 笔记 大数据

本文转载自: https://blog.csdn.net/weixin_74774974/article/details/136321111
版权归原作者 暗托涅瓦 所有, 如有侵权,请联系我们删除。

“Spark技术03直播笔记”的评论:

还没有评论