0


Spark框架—RDD算式mapPartitionsWithIndex与filter的用法

在这里插入图片描述

  1. @junit.TestdefmapPartitionsWithIndex():Unit={
  2. sc.parallelize(Seq(1,2,3,4,5,6),2).mapPartitionsWithIndex((index,iter)=>{
  3. println("index:"+index)
  4. iter.foreach(item=>println(item))
  5. iter
  6. }).collect()}@junit.Testdefmap1():Unit={
  7. sc.parallelize(Seq(1,2,3,4,5,6),2).mapPartitionsWithIndex((index,iter)=>{
  8. println("index:"+index)
  9. iter.map(item=> item *10)
  10. iter.foreach(item => println(item))
  11. iter
  12. }).collect()}@junit.Test//1.定义集合
  13. //2.过滤数据
  14. //3.收集结果
  15. deffilter():Unit={//filter相当于if结构
  16. sc.parallelize(Seq(1,2,3,4,5,6,7,8,9,10)).filter(item => item %2==0).collect().foreach(item => println(item))}}

在这里插入图片描述

标签: hive hadoop spark

本文转载自: https://blog.csdn.net/m0_62491934/article/details/123781896
版权归原作者 那人独钓寒江雪. 所有, 如有侵权,请联系我们删除。

“Spark框架—RDD算式mapPartitionsWithIndex与filter的用法”的评论:

还没有评论