0


spark-在IDEA中搭建scala编程环境

第一步,新建maven工程,配置pom.xml(配置依赖时,要注意spark版本的对应,在最后说明)

  1. <dependencies>
  2. <!-- https://mvnrepository.com/artifact/org.scala-lang/scala-library -->
  3. <dependency>
  4. <groupId>org.scala-lang</groupId>
  5. <artifactId>scala-library</artifactId>
  6. <version>2.12.4</version>
  7. </dependency>
  8. <dependency>
  9. <groupId>org.apache.spark</groupId>
  10. <artifactId>spark-core_2.12</artifactId>
  11. <version>2.4.4</version>
  12. </dependency>
  13. <dependency>
  14. <groupId>org.apache.spark</groupId>
  15. <artifactId>spark-streaming_2.12</artifactId>
  16. <version>2.4.4</version>
  17. </dependency>
  18. <dependency>
  19. <groupId>com.github.scopt</groupId>
  20. <artifactId>scopt_2.12</artifactId>
  21. <version>3.5.0</version>
  22. </dependency>
  23. </dependencies>

第二步,在idea上下载scala-sdk。(2.12.4)(如果已经添加了就不用再添加)

点击 Add Framework Support

选择Scala,点击Create,选择2.12.4版本,最后点击DownLoad下载

第三步,开启spark

首先cd命令进入spark所在的目录。

  1. 然后启动spark,命令为
  1. bin/spark-shell

图示即为启动成功

** 第四步**,在main下新建scala文件夹,并设置成为Source Root

第五步,新建scala文件

右键scala文件夹,new中找到Scala Class并点击

随便取一个名称,Kind里面选择Object,然后ok即创建成功

第六步,创建启动环境

  1. 在刚刚新建的scala文件中输入代码:(注意 object 后面的对象名字,和scala的文件名称保持一致)
  1. import org.apache.spark.{SparkConf, SparkContext} //import spark包
  2. object scala_test {
  3. def main(args: Array[String]): Unit = {
  4. //1.初始化spark配置信息并建立与spark的连接
  5. val sparkConf = new SparkConf().setMaster("local[*]").setAppName("bigdata01")
  6. val sc = new SparkContext(sparkConf)
  7. val rdd = sc.parallelize(Array(1,2,3)) //创建rdd
  8. rdd.collect().foreach(println) //输出rdd
  9. sc.stop() //关闭与spark的连接,必须关闭,否则无输出结果
  10. }
  11. }

运行此代码,会自动创建一个启动环境。

第七步,在idea中添加连接spark的启动环境

选择Run,点击 Edit Configurations

在Vm options里添加-Dspark.master=spark://spark所在的电脑ip地址:端口号 ,这里的IP地址和端口可以在启动spark后,通过浏览器访问spark界面得到,一般访问spark页面的路径为 ip:8080 或者 ip:8081

可以从spark的页面中得到连接端口,我的为7077端口

得到端口便在VM options中输入 -Dspark.master=spark://spark所在的电脑ip地址:端口号

设置完成后点击 Apply 即可(若在web端页面找不到端口,直接填写4040端口)

第八步,测试scala是否搭建成功

  1. 在刚刚新建的scala文件中输入代码:(注意 object 后面的对象名字,和scala的文件名称保持一致)

如果输出了1,2,3,那就代表连接spark成功,也可以在此文件中进行rdd编程


本文转载自: https://blog.csdn.net/weixin_52831324/article/details/127038011
版权归原作者 稻草人想看远方 所有, 如有侵权,请联系我们删除。

“spark-在IDEA中搭建scala编程环境”的评论:

还没有评论