PySpark DataFrame:自定义爆炸函数

2024-01-01

如何使用udfs实现自定义爆炸功能,以便我们可以获得有关项目的额外信息?例如,除了项目之外,我还想要项目的索引。

我不知道该怎么做的部分是当 udf 返回多个值时,我们应该将这些值放置为单独的行。


如果您需要自定义爆炸函数,那么您需要编写获取数组并返回数组的UDF。例如对于这个 DF:

df = spark.createDataFrame([(['a', 'b', 'c'], ), (['d', 'e'],)], ['array'])
df.show()
+---------+
|    array|
+---------+
|[a, b, c]|
|   [d, e]|
+---------+

添加索引并分解结果的函数如下所示:

from pyspark.sql.types import *
value_with_index = StructType([
    StructField('index', IntegerType()),
    StructField('letter', StringType())
])
add_indices = udf(lambda arr: list(zip(range(len(arr)), arr)), ArrayType(value_with_index))
df.select(explode(add_indices('array'))).select('col.index', 'col.letter').show()
+-----+------+
|index|letter|
+-----+------+
|    0|     a|
|    1|     b|
|    2|     c|
|    0|     d|
|    1|     e|
+-----+------+
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

PySpark DataFrame:自定义爆炸函数 的相关文章

随机推荐