Spark-Core编程

打印 上一主题 下一主题

主题 1928|帖子 1928|积分 5784



Value范例:

1)map
➢ 函数签名
def map[U: ClassTag](f: T => U): RDD[U]
➢ 函数说明
将处置惩罚的数据逐条举行映射转换,这里的转换可以是范例的转换,也可以是值的转换。import org.apache.spark.{SparkConf, SparkContext}

import org.apache.spark.rdd.RDD


object RDDMapExample {

  def main(args: Array[String]): Unit = {

    // 创建 SparkConf 配置对象

    val sparkConf = new SparkConf().setMaster("local
  • ").setAppName("RDD_function")

  •     // 创建 SparkContext 对象

        val sparkContext = new SparkContext(sparkConf)

        // 创建一个 RDD,包含整数 1 到 4

        val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4))

        // 使用 map 函数将每个元素乘以 2

        val dataRDD1: RDD[Int] = dataRDD.map(

          num => {

            num * 2

          }

        )

        // 使用 map 函数将每个元素转换为字符串

        val dataRDD2: RDD[String] = dataRDD1.map(

          num => {

            "" + num

          }

        )

        // 收集 RDD2 的元素并打印

        val result = dataRDD2.collect()

        result.foreach(println)


        // 停止 SparkContext

        sparkContext.stop()

      }

    }


    2)mapPartitions

    import org.apache.spark.{SparkConf, SparkContext}

    import org.apache.spark.rdd.RDD


    object MapPartitionsExample {

      def main(args: Array[String]): Unit = {

        // 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function

        val sparkConf = new SparkConf().setMaster("local
  • ").setAppName("RDD_function")

  •     // 创建 SparkContext 对象

        val sparkContext = new SparkContext(sparkConf)


        // 创建一个包含 1 到 4 的整数列表的 RDD

        val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4))


        // 使用 mapPartitions 函数对每个分区的数据举行过滤操作

        val dataRDD1: RDD[Int] = dataRDD.mapPartitions(

          datas => {

            datas.filter(_ == 2)

          }

        )


        // 收集 RDD 中的数据到本地

        val result = dataRDD1.collect()

        // 遍历并打印结果

        result.foreach(println)


        // 停止 SparkContext,开释资源

        sparkContext.stop()

      }

    }
    )


    3)mapPartitionsWithIndex
    import org.apache.spark.{SparkConf, SparkContext}
    import org.apache.spark.rdd.RDD

    object RDDGlomExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象
        val conf = new SparkConf().setAppName("RDDGlomExample").setMaster("local
  • ")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(conf)

        // 创建一个初始的 RDD
        val dataRDD = sparkContext.makeRDD(List(
          1, 2, 3, 4
        ), 1)

        // 使用 glom 操作将每个分区中的元素转换为一个数组
        val dataRDD1: RDD[Array[Int]] = dataRDD.glom()

        // 收集结果并打印
        val result = dataRDD1.collect()
        result.foreach(arr => println(arr.mkString(", ")))

        // 停止 SparkContext
        sparkContext.stop()
      }
    }    

    4)flatMap
    import org.apache.spark.{SparkConf, SparkContext}

    import org.apache.spark.rdd.RDD

    object FlatMapExample {

      def main(args: Array[String]): Unit = {

        // 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function

        val sparkConf = new SparkConf().setMaster("local
  • ").setAppName("RDD_function")
        // 创建 SparkContext 对象

        val sparkContext = new SparkContext(sparkConf)

        // 创建一个包含多个列表的 RDD,分区数为 1

        val dataRDD: RDD[List[Int]] = sparkContext.makeRDD(List(

          List(1, 2), List(3, 4)

        ), 1)

        // 使用 flatMap 函数将嵌套列表睁开为单个元素的 RDD

        val dataRDD1: RDD[Int] = dataRDD.flatMap(

          list => list

        )

        // 收集 RDD 中的数据到本地

        val result = dataRDD1.collect()

        // 遍历并打印结果

        result.foreach(println)

        // 停止 SparkContext,开释资源

        sparkContext.stop()

      }

    }


    5)Glom
    import org.apache.spark.{SparkConf, SparkContext}
    import org.apache.spark.rdd.RDD
    object GlomExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function
        val sparkConf = new SparkConf().setMaster("local
  • ").setAppName("RDD_function")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(sparkConf)
        // 创建一个包含 1 到 4 的整数列表的 RDD,分区数为 1
        val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4), 1)
        // 使用 glom 函数将每个分区的数据转换为数组
        val dataRDD1: RDD[Array[Int]] = dataRDD.glom()
        // 收集 RDD 中的数据到本地
        val result = dataRDD1.collect()
        // 遍历结果并打印每个分区的数组
        result.foreach(arr => println(arr.mkString("[", ", ", "]")))

        // 停止 SparkContext,开释资源
        sparkContext.stop()
      }
    }


    6)groupBy
    import org.apache.spark.{SparkConf, SparkContext}
    import org.apache.spark.rdd.RDD
    object GroupByExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function
        val sparkConf = new SparkConf().setMaster("local
  • ").setAppName("RDD_function")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(sparkConf)
        // 创建一个包含 1 到 4 的整数列表的 RDD,分区数为 1
        val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4), 1)
        // 使用 groupBy 函数根据元素对 2 取模的结果举行分组
        val dataRDD1: RDD[(Int, Iterable[Int])] = dataRDD.groupBy(
          _ % 2
        )
        // 收集 RDD 中的数据到本地
        val result = dataRDD1.collect()
        // 遍历结果并打印每个分组
        result.foreach { case (key, values) =>
          println(s"Key: $key, Values: ${values.mkString("[", ", ", "]")}")
        }
        // 停止 SparkContext,开释资源
        sparkContext.stop()
      }
    }

    )


    7)Filter
    import org.apache.spark.{SparkConf, SparkContext}
    import org.apache.spark.rdd.RDD

    object FilterExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function
        val sparkConf = new SparkConf().setMaster("local
  • ").setAppName("RDD_function")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(sparkConf)
        // 创建一个包含 1 到 4 的整数列表的 RDD,分区数为 1
        val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4), 1)
        // 使用 filter 函数筛选出偶数
        val dataRDD1: RDD[Int] = dataRDD.filter(_ % 2 == 0)
        // 使用 filter 函数筛选出奇数
        val dataRDD2: RDD[Int] = dataRDD.filter(_ % 2 == 1)
        // 收集偶数筛选结果到本地
        val result1 = dataRDD1.collect()
        // 收集奇数筛选结果到本地
        val result2 = dataRDD2.collect()

        // 打印偶数筛选结果
        println("偶数结果:")
        result1.foreach(println)

        // 打印奇数筛选结果
        println("奇数结果:")
        result2.foreach(println)

        // 停止 SparkContext,开释资源
        sparkContext.stop()
      }
    }

    8)sample
    import org.apache.spark.{SparkConf, SparkContext}
    import org.apache.spark.rdd.RDD

    object SampleExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function
        val sparkConf = new SparkConf().setMaster("local
  • ").setAppName("RDD_function")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(sparkConf)

        // 创建一个包含 1 到 4 的整数列表的 RDD,分区数为 1
        val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4), 1)

        // 抽取数据不放回(伯努利算法)
        // 第一个参数:抽取的数据是否放回,false:不放回
        // 第二个参数:抽取的几率,范围在[0,1]之间,0:全不取;1:全取;
        // 第三个参数:随机数种子,这里使用默认值
        val dataRDD1: RDD[Int] = dataRDD.sample(false, 0.5)

        // 抽取数据放回(泊松算法)
        // 第一个参数:抽取的数据是否放回,true:放回;false:不放回
        // 第二个参数:重复数据的几率,范围大于等于 0,表现每一个元素被期望抽取到的次数
        // 第三个参数:随机数种子,这里使用默认值
        val dataRDD2: RDD[Int] = dataRDD.sample(true, 2)

        // 收集不放回抽样的结果
        val result1 = dataRDD1.collect()
        // 收集放回抽样的结果
        val result2 = dataRDD2.collect()

        // 打印不放回抽样的结果
        println("不放回抽样结果:")
        result1.foreach(println)

        // 打印放回抽样的结果
        println("放回抽样结果:")
        result2.foreach(println)

        // 停止 SparkContext,开释资源
        sparkContext.stop()
      }
    }

    Value范例:

    9)Distinct
    import org.apache.spark.{SparkConf, SparkContext}
    import org.apache.spark.rdd.RDD

    object DistinctExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function
        val sparkConf = new SparkConf().setMaster("local
  • ").setAppName("RDD_function")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(sparkConf)

        // 创建一个包含重复元素的 RDD
        val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4, 1, 2))

        // 使用 distinct() 方法去重,默认分区数
        val dataRDD1: RDD[Int] = dataRDD.distinct()

        // 使用 distinct(2) 方法去重,指定分区数为 2
        val dataRDD2: RDD[Int] = dataRDD.distinct(2)

        // 收集默认分区数去重后的结果
        val result1 = dataRDD1.collect()
        // 收集指定分区数去重后的结果
        val result2 = dataRDD2.collect()

        // 打印默认分区数去重后的结果
        println("默认分区数去重结果:")
        result1.foreach(println)

        // 打印指定分区数去重后的结果
        println("指定分区数(2)去重结果:")
        result2.foreach(println)

        // 停止 SparkContext,开释资源
        sparkContext.stop()
      }
    }


    10、Coalesce
    import org.apache.spark.{SparkConf, SparkContext}
    import org.apache.spark.rdd.RDD

    object CoalesceExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function
        val sparkConf = new SparkConf().setMaster("local
  • ").setAppName("RDD_function")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(sparkConf)

        // 创建一个包含重复元素的 RDD,初始分区数为 6
        val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4, 1, 2), 6)

        // 使用 coalesce 方法将分区数缩减为 2
        val dataRDD1: RDD[Int] = dataRDD.coalesce(2)

        // 收集缩减分区后 RDD 的数据
        val result = dataRDD1.collect()

        // 打印缩减分区后的数据
        println("缩减分区后的数据:")
        result.foreach(println)

        // 停止 SparkContext,开释资源
        sparkContext.stop()
      }
    }

    11、Repartition
    import org.apache.spark.{SparkConf, SparkContext}
    import org.apache.spark.rdd.RDD

    object RepartitionExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置运行模式为本地模式,应用名为 RDD_function
        val sparkConf = new SparkConf().setMaster("local
  • ").setAppName("RDD_function")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(sparkConf)

        // 创建一个包含重复元素的 RDD,初始分区数为 2
        val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4, 1, 2), 2)

        // 使用 repartition 方法将分区数增加到 4
        val dataRDD1: RDD[Int] = dataRDD.repartition(4)

        // 收集重新分区后 RDD 的数据
        val result = dataRDD1.collect()

        // 打印重新分区后的数据
        println("重新分区后的数据:")
        result.foreach(println)

        // 停止 SparkContext,开释资源
        sparkContext.stop()
      }
    }

    12)sortBy
    import org.apache.spark.SparkContext
    import org.apache.spark.SparkConf

    object SortByExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置应用名称和运行模式
        val conf = new SparkConf().setAppName("SortByExample").setMaster("local
  • ")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(conf)

        // 创建一个包含数据的 RDD,并指定分区数为 2
        val dataRDD = sparkContext.makeRDD(List(1, 2, 3, 4, 1, 2), 2)

        // 打印原始 RDD 的内容
        println("原始 RDD 的内容:")
        dataRDD.collect().foreach(println)

        // 使用 sortBy 方法举行降序排序,并指定分区数为 4
        val dataRDD1 = dataRDD.sortBy(num => num, false, 4)
        println("降序排序后 RDD 的内容:")
        dataRDD1.collect().foreach(println)

        // 使用 sortBy 方法举行升序排序,并指定分区数为 4
        val dataRDD2 = dataRDD.sortBy(num => num, true, 4)
        println("升序排序后 RDD 的内容:")
        dataRDD2.collect().foreach(println)

        // 停止 SparkContext,开释资源
        sparkContext.stop()
      }
    }    


    双Value范例:

    13) intersection
    import org.apache.spark.SparkContext
    import org.apache.spark.SparkConf

    object IntersectionExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置应用名称和运行模式
        val conf = new SparkConf().setAppName("IntersectionExample").setMaster("local
  • ")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(conf)

        // 创建第一个 RDD
        val dataRDD1 = sparkContext.makeRDD(List(1, 2, 3, 4))
        // 创建第二个 RDD
        val dataRDD2 = sparkContext.makeRDD(List(3, 4, 5, 6))

        // 求两个 RDD 的交集
        val dataRDD = dataRDD1.intersection(dataRDD2)

        // 输出交集结果
        println("两个 RDD 的交集结果为:")
        dataRDD.collect().foreach(println)

        // 停止 SparkContext,开释资源
        sparkContext.stop()
      }
    }    

    14) union
    import org.apache.spark.SparkContext
    import org.apache.spark.SparkConf

    object UnionExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置应用名称和运行模式
        val conf = new SparkConf().setAppName("UnionExample").setMaster("local
  • ")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(conf)

        // 创建第一个 RDD
        val dataRDD1 = sparkContext.makeRDD(List(1, 2, 3, 4))
        // 创建第二个 RDD
        val dataRDD2 = sparkContext.makeRDD(List(3, 4, 5, 6))

        // 求两个 RDD 的并集
        val dataRDD = dataRDD1.union(dataRDD2)

        // 输出并集结果
        println("两个 RDD 的并集结果为:")
        dataRDD.collect().foreach(println)

        // 停止 SparkContext,开释资源
        sparkContext.stop()
      }
    }    

    15)Subtract
    import org.apache.spark.SparkContext
    import org.apache.spark.SparkConf

    object SubtractExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置应用名称和运行模式
        val conf = new SparkConf().setAppName("SubtractExample").setMaster("local
  • ")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(conf)

        // 创建第一个 RDD
        val dataRDD1 = sparkContext.makeRDD(List(1, 2, 3, 4))
        // 创建第二个 RDD
        val dataRDD2 = sparkContext.makeRDD(List(3, 4, 5, 6))

        // 求两个 RDD 的差集
        val dataRDD = dataRDD1.subtract(dataRDD2)

        // 输出差集结果
        println("两个 RDD 的差集结果为:")
        dataRDD.collect().foreach(println)

        // 停止 SparkContext,开释资源
        sparkContext.stop()
      }
    }    

    16) zip
    import org.apache.spark.SparkContext
    import org.apache.spark.SparkConf

    object ZipExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置应用名称和运行模式
        val conf = new SparkConf().setAppName("ZipExample").setMaster("local
  • ")
        // 创建 SparkContext 对象
        val sparkContext = new SparkContext(conf)

        // 创建第一个 RDD
        val dataRDD1 = sparkContext.makeRDD(List("a", "b", "c", "d"))
        // 创建第二个 RDD
        val dataRDD2 = sparkContext.makeRDD(List(1, 2, 3, 4))

        // 使用 zip 方法将两个 RDD 归并
        val dataRDD = dataRDD1.zip(dataRDD2)

        // 输出归并后的结果
        println("两个 RDD 归并后的结果为:")
        dataRDD.collect().foreach(println)

        // 停止 SparkContext,开释资源
        sparkContext.stop()
      }
    }    

    Key-Value范例:

    17) partitionBy
    import org.apache.spark.{HashPartitioner, SparkConf, SparkContext}
    import org.apache.spark.rdd.RDD

    object PartitionByExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置应用名称和运行模式
        val conf = new SparkConf().setAppName("artitionByExample").setMaster("local
  • ")
        // 创建 SparkContext 对象
        val sc = new SparkContext(conf)

        // 创建一个包含键值对的 RDD,并指定分区数为 3
        val rdd: RDD[(Int, String)] = sc.makeRDD(Array((1, "aaa"), (2, "bbb"), (3, "ccc")), 3)

        // 打印原始 RDD 的分区数
        println(s"原始 RDD 的分区数: ${rdd.partitions.length}")

        // 使用 partitionBy 方法,通过 HashPartitioner 将 RDD 重新分区为 2 个分区
        val rdd2: RDD[(Int, String)] = rdd.partitionBy(new HashPartitioner(2))

        // 打印重新分区后 RDD 的分区数
        println(s"重新分区后 RDD 的分区数: ${rdd2.partitions.length}")

        // 输出重新分区后每个分区的内容
        rdd2.mapPartitionsWithIndex { (index, iter) =>
          val partitionData = iter.toList
          println(s"分区 $index 的内容: ${partitionData.mkString(", ")}")
          partitionData.iterator
        }.collect()

        // 停止 SparkContext,开释资源
        sc.stop()
      }
    }    

    18) groupByKey
    import org.apache.spark.{HashPartitioner, SparkConf, SparkContext}
    import org.apache.spark.rdd.RDD

    object GroupByKeyExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置应用名称和运行模式
        val conf = new SparkConf().setAppName("GroupByKeyExample").setMaster("local
  • ")
        // 创建 SparkContext 对象
        val sc = new SparkContext(conf)

        // 创建一个包含键值对的 RDD
        val dataRDD1: RDD[(String, Int)] = sc.makeRDD(List(("a", 1), ("b", 2), ("c", 3), ("a", 4)))

        // 打印原始 RDD 的内容
        println("原始 RDD 的内容:")
        dataRDD1.collect().foreach(println)

        // 使用 groupByKey() 举行分组
        val dataRDD2 = dataRDD1.groupByKey()
        println("使用 groupByKey() 分组后的结果:")
        dataRDD2.collect().foreach(println)

        // 使用 groupByKey(2) 举行分组,指定分区数为 2
        val dataRDD3 = dataRDD1.groupByKey(2)
        println("使用 groupByKey(2) 分组后的结果:")
        dataRDD3.collect().foreach(println)

        // 使用 groupByKey(new HashPartitioner(2)) 举行分组,指定分区器
        val dataRDD4 = dataRDD1.groupByKey(new HashPartitioner(2))
        println("使用 groupByKey(new HashPartitioner(2)) 分组后的结果:")
        dataRDD4.collect().foreach(println)

        // 停止 SparkContext,开释资源
        sc.stop()
      }
    }   

    19) reduceByKey
    import org.apache.spark.SparkConf
    import org.apache.spark.SparkContext
    import org.apache.spark.rdd.RDD

    object ReduceByKeyExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置应用名称和运行模式
        val conf = new SparkConf().setAppName("ReduceByKeyExample").setMaster("local
  • ")
        // 创建 SparkContext 对象
        val sc = new SparkContext(conf)

        // 创建包含键值对的 RDD
        val dataRDD1: RDD[(String, Int)] = sc.makeRDD(List(("a", 1), ("b", 2), ("c", 3), ("a", 4)))

        // 输出原始 RDD 的内容
        println("原始 RDD 的内容:")
        dataRDD1.collect().foreach(println)

        // 使用 reduceByKey(_ + _) 举行聚合操作
        val dataRDD2: RDD[(String, Int)] = dataRDD1.reduceByKey(_ + _)
        println("使用 reduceByKey(_ + _) 聚合后的内容:")
        dataRDD2.collect().foreach(println)

        // 使用 reduceByKey(_ + _, 2) 举行聚合操作,并指定分区数为 2
        val dataRDD3: RDD[(String, Int)] = dataRDD1.reduceByKey(_ + _, 2)
        println("使用 reduceByKey(_ + _, 2) 聚合后的内容:")
        dataRDD3.collect().foreach(println)

        // 停止 SparkContext,开释资源
        sc.stop()
      }
    }

    20)aggregateByKey
    import org.apache.spark.SparkConf
    import org.apache.spark.SparkContext
    import org.apache.spark.rdd.RDD

    object AggregateByKeyExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置应用名称和运行模式
        val conf = new SparkConf().setAppName("AggregateByKeyExample").setMaster("local
  • ")
        // 创建 SparkContext 对象
        val sc = new SparkContext(conf)

        // 创建包含键值对的 RDD
        val dataRDD1: RDD[(String, Int)] = sc.makeRDD(List(("a", 1), ("b", 2), ("c", 3), ("a", 4)))

        // 输出原始 RDD 的内容
        println("原始 RDD 的内容:")
        dataRDD1.collect().foreach(println)

        // 使用 aggregateByKey 举行聚合操作
        val dataRDD2: RDD[(String, Int)] = dataRDD1.aggregateByKey(0)(_ + _, _ + _)

        // 输出聚合后的内容
        println("使用 aggregateByKey 聚合后的内容:")
        dataRDD2.collect().foreach(println)

        // 停止 SparkContext,开释资源
        sc.stop()
      }
    }    

    21) foldByKey
    import org.apache.spark.SparkConf
    import org.apache.spark.SparkContext
    import org.apache.spark.rdd.RDD

    object FoldByKeyExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置应用名称和运行模式
        val conf = new SparkConf().setAppName("FoldByKeyExample").setMaster("local
  • ")
        // 创建 SparkContext 对象
        val sc = new SparkContext(conf)

        // 创建包含键值对的 RDD
        val dataRDD1: RDD[(String, Int)] = sc.makeRDD(List(("a", 1), ("b", 2), ("c", 3), ("a", 4)))

        // 输出原始 RDD 的内容
        println("原始 RDD 的内容:")
        dataRDD1.collect().foreach(println)

        // 使用 foldByKey 举行聚合操作
        val dataRDD2: RDD[(String, Int)] = dataRDD1.foldByKey(0)(_ + _)

        // 输出聚合后的内容
        println("使用 foldByKey 聚合后的内容:")
        dataRDD2.collect().foreach(println)

        // 停止 SparkContext,开释资源
        sc.stop()
      }
    }

    22)combineByKey
    import org.apache.spark.SparkConf
    import org.apache.spark.SparkContext
    import org.apache.spark.rdd.RDD

    object CombineByKeyExample {
      def main(args: Array[String]): Unit = {
        // 创建 SparkConf 对象,设置应用名称和运行模式
        val conf = new SparkConf().setAppName("CombineByKeyExample").setMaster("local
  • ")
        // 创建 SparkContext 对象
        val sc = new SparkContext(conf)

        // 定义数据列表
        val list: List[(String, Int)] = List(("a", 88), ("b", 95), ("a", 91), ("b", 93), ("a", 95), ("b", 98))
        // 创建 RDD
        val input: RDD[(String, Int)] = sc.makeRDD(list, 2)

        // 使用 combineByKey 举行聚合操作
        val combineRDD: RDD[(String, (Int, Int))] = input.combineByKey(
          (_, 1), // 将当前值作为参数举行附加操作并返回,初始时将值和计数设为 (value, 1)
          (acc: (Int, Int), v) => (acc._1 + v, acc._2 + 1), // 在分区内部举行,将新元素 v 归并到第一步操作得到的结果中
          (acc1: (Int, Int), acc2: (Int, Int)) => (acc1._1 + acc2._1, acc1._2 + acc2._2) // 将分区内部计算的结果举行分区间的汇总计算
        )

        // 输出原始 RDD 的内容
        println("原始 RDD 的内容:")
        input.collect().foreach(println)

        // 输出聚合后的内容
        println("使用 combineByKey 聚合后的内容:")
        combineRDD.collect().foreach(println)

        // 停止 SparkContext,开释资源
        sc.stop()
      }
    }


    免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
  • 本帖子中包含更多资源

    您需要 登录 才可以下载或查看,没有账号?立即注册

    x
    回复

    使用道具 举报

    0 个回复

    倒序浏览

    快速回复

    您需要登录后才可以回帖 登录 or 立即注册

    本版积分规则

    我可以不吃啊

    论坛元老
    这个人很懒什么都没写!
    快速回复 返回顶部 返回列表