在spark中,有没有一种快速的方法来获取数据集中元素数量的近似计数?也就是说,比Dataset.count()
does.
也许我们可以根据数据集的分区数量来计算这些信息,可以吗?
你可以尝试使用countApprox
在 RDD API 上,尽管这也启动了 Spark 作业,但它应该更快,因为它只是为您提供了您想要花费的给定时间(毫秒)的真实计数的估计和置信区间(即真实值的概率)是在这个范围内):
用法示例:
val cntInterval = df.rdd.countApprox(timeout = 1000L,confidence = 0.90)
val (lowCnt,highCnt) = (cntInterval.initialValue.low, cntInterval.initialValue.high)
你必须稍微调整一下参数timeout
and confidence
。超时值越高,估计计数越准确。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)