0


20天学习Spark(1)之Spark UI的使用

SparkUI是spark展示任务运行状况、资源状态和监控指标的前端,可以根据SparkUI的展示来了解在运行时Spark任务执行情况,也可以帮助学习Spark,本文档基于spark3.0.0

SparkUI启动不用单独安装,执行Spark期间,可以直接使用浏览器访问:localhost:4040即可,localhost也可以是服务器IP地址

job页

请添加图片描述

1:job级别的任务执行记录,可看到具体的executor和task执行时间
2:所有stage,stage是按照宽依赖来区分的,因此粒度上要比job更细一些
3 :storage页面,我们所做的cache persist等操作,都会在这里看到,可以看出来应用目前使用了多少缓存
4: 代表environment页面,里面展示了当前spark所依赖的环境,比如jdk,lib等等
5 :代表executors页面,这里可以看到执行者申请使用的内存以及shuffle中input和output等数据

6 : 代表Spark SQL的页面,可以在这里看到执行的查询

job详情页

点击一个job后,会进入对应job的详情页面,包含事件执行时间线,DAG图,执行的Stages,和失败的Stages(关键词如果不明白的可以对照另外一个文档看:20天学习Spark(0)之最简单版Spark入门)

前面展示的和job页差不多,这里主要展示DAG图

请添加图片描述

请添加图片描述

stage页面

点击其中一个任务后,可以进入stage详情信息

请添加图片描述

请添加图片描述

请添加图片描述

这里是所有job相关页面,在菜单栏上点击stages可以来到stage列表页面,没有什么内容,这里就不写了

storage页面存储缓存相关内容,这里没有展示‘

Executors页面

点击Executors可以看到关于Executor可视化界面

请添加图片描述

关于Executor可视化界面

请添加图片描述

标签: spark 大数据

本文转载自: https://blog.csdn.net/lihao1107156171/article/details/126829564
版权归原作者 浩哥的技术博客 所有, 如有侵权,请联系我们删除。

“20天学习Spark(1)之Spark UI的使用”的评论:

还没有评论