我在 Spark-Python 中有以下代码,用于从 DataFrame 的架构中获取名称列表,该代码工作正常,但如何获取数据类型列表?
columnNames = df.schema.names
例如,类似:
columnTypes = df.schema.types
有没有办法获取 DataFrame 架构中包含的数据类型的单独列表?
这是一个建议:
df = sqlContext.createDataFrame([('a', 1)])
types = [f.dataType for f in df.schema.fields]
types
> [StringType, LongType]
参考:
- pyspark.sql.types.StructType http://spark.apache.org/docs/latest/api/python/pyspark.sql.html#pyspark.sql.types.StructType
- pyspark.sql.types.StructField http://spark.apache.org/docs/latest/api/python/pyspark.sql.html#pyspark.sql.types.StructField
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)