PySpark:添加一个新列,其中包含从列创建的元组

2024-03-28

这里我创建了一个数据框,如下所示,

df = spark.createDataFrame([('a',5,'R','X'),('b',7,'G','S'),('c',8,'G','S')], 
                       ["Id","V1","V2","V3"])

看起来像

+---+---+---+---+
| Id| V1| V2| V3|
+---+---+---+---+
|  a|  5|  R|  X|
|  b|  7|  G|  S|
|  c|  8|  G|  S|
+---+---+---+---+

我想要添加一列,该列是由 V1、V2、V3 组成的元组。

结果应该看起来像

+---+---+---+---+-------+
| Id| V1| V2| V3|V_tuple|
+---+---+---+---+-------+
|  a|  5|  R|  X|(5,R,X)|
|  b|  7|  G|  S|(7,G,S)|
|  c|  8|  G|  S|(8,G,S)|
+---+---+---+---+-------+

我尝试使用与 Python 中类似的语法,但它不起作用:

df.withColumn("V_tuple",list(zip(df.V1,df.V2,df.V3)))

类型错误:zip 参数 #1 必须支持迭代。

任何帮助,将不胜感激!


我来自 scala 但我确实相信 python 中有类似的方法:

Using sql.functions http://spark.apache.org/docs/latest/api/scala/index.html#org.apache.spark.sql.functions%24封装方法:

如果你想获得一个StructType对于这三列,使用struct(cols: Column*): Column像这样的方法:

from pyspark.sql.functions import struct
df.withColumn("V_tuple",struct(df.V1,df.V2,df.V3))

但如果你想将它作为字符串获取,你可以使用concat(exprs: Column*): Column像这样的方法:

from pyspark.sql.functions import concat
df.withColumn("V_tuple",concat(df.V1,df.V2,df.V3))

使用第二种方法,您可能必须将列转换为Strings

我不确定 python 语法,如果有语法错误,只需编辑答案。

希望这对您有帮助。此致

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

PySpark:添加一个新列,其中包含从列创建的元组 的相关文章

随机推荐