0


Linux的Spark 环境部署

前言:需自行准备hadoop集群

  1. Spark 是一款分布式内存计算引擎, 可以支撑海量数据的分布式计算。 Spark 在大数据体系是明星产品, 作为最新一代的综合计算引擎, 支持离线计算和实 时计算。 在大数据领域广泛应用, 是目前世界上使用最多的大数据分布式计算引擎。 我们将基于前面构建的 Hadoop 集群, 部署 Spark Standalone 集群。

2.安装

spark镜像安装https://mirrors.aliyun.com/apache/spark/spark-3.5.3/?spm=a2c6h.25603864.0.0.12d22104b1PXSX![](https://i-blog.csdnimg.cn/direct/872996cea9154cd28107f18958642000.png)


本文转载自: https://blog.csdn.net/m0_72898512/article/details/142926294
版权归原作者 hive 数仓 学习中 所有, 如有侵权,请联系我们删除。

“Linux的Spark 环境部署”的评论:

还没有评论