我在 Spark Scala 中有一个示例数据框,其中包含一列和许多其他列 50+,并且需要分解 id :
示例数据:
id name address
234 435 567 auh aus
345 123 muji uk
输出数据:
id name address
234 auh aus
435 auh aus
567 auh aus
345 muji uk
123 muji uk
尝试这个:
import org.apache.spark.sql.functions._
scala> df.withColumn("id", explode(split($"id", " "))).show
+---+----+-------+
| id|name|address|
+---+----+-------+
|234| auh| aus|
|435| auh| aus|
|567| auh| aus|
|345|muji| uk|
|123|muji| uk|
+---+----+-------+
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)