我知道我可以将我的 Spark 数据帧作为 CSV 文件输出到 AWS S3
df.repartition(1).write.csv('s3://my-bucket-name/df_name')
我的问题是有没有一种简单的方法可以将此文件的访问控制列表(ACL)设置为'bucket-owner-full-control'
使用pyspark将其写入S3时?
构建 Spark 会话后,可以通过 Hadoop 配置设置访问控制列表 (ACL)。
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('YourAppName').getOrCreate()
设置ACL如下:
spark.sparkContext.hadoopConfiguration().set('fs.s3.canned.acl', 'BucketOwnerFullControl')
参考:s3 文档 https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-s3-acls.html
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)