当使用Scala标准库时,我可以这样做:
scala> val scalaList = List(1,2,3)
scalaList: List[Int] = List(1, 2, 3)
scala> scalaList.foldLeft(0)((acc,n)=>acc+n)
res0: Int = 6
从多个 Int 中生成一个 Int。
我可以做这样的事情:
scala> scalaList.foldLeft("")((acc,n)=>acc+n.toString)
res1: String = 123
从许多 Int 中生成一个 String。
因此,foldLeft 可以是同构的,也可以是异构的,无论我们想要哪一种,它都在一个 API 中。
在 Spark 中,如果我想要从多个 Int 中选择一个 Int,我可以这样做:
scala> val rdd = sc.parallelize(List(1,2,3))
rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[1] at parallelize at <console>:12
scala> rdd.fold(0)((acc,n)=>acc+n)
res1: Int = 6
Fold API 与 FoldLeft 类似,但它只是同构的,RDD[Int] 只能产生带有 Fold 的 Int。
Spark 中也有一个聚合 API:
scala> rdd.aggregate("")((acc,n)=>acc+n.toString, (s1,s2)=>s1+s2)
res11: String = 132
它是异构的,一个 RDD[Int] 现在可以生成一个 String。
那么,为什么折叠和聚合在 Spark 中作为两个不同的 API 实现呢?
为什么它们不像 FoldLeft 那样设计,既可以是同质的,也可以是异质的?
(我对 Spark 很陌生,如果这是一个愚蠢的问题,请原谅。)