我正在尝试使用以下方法在我的 Spark 应用程序中加载自定义属性:-
command-runner.jar,spark-submit,--deploy-mode,cluster,--properties-file,s3://spark-config-test/myprops.conf,--num-executors,5,--executor-cores,2,--class,com.amazon.Main,#{input.directoryPath}/SWALiveOrderModelSpark-1.0-super.jar
但是,我遇到以下异常:-
线程“main”中的异常 java.lang.IllegalArgumentException:无效
属性文件“s3://spark-config-test/myprops.conf”。在
org.apache.spark.launcher.CommandBuilderUtils.checkArgument(CommandBuilderUtils.java:241)
在
org.apache.spark.launcher.AbstractCommandBuilder.loadPropertiesFile(AbstractCommandBuilder.java:284)
在
org.apache.spark.launcher.AbstractCommandBuilder.getEffectiveConfig(AbstractCommandBuilder.java:264)
在
org.apache.spark.launcher.SparkSubmitCommandBuilder.buildSparkSubmitCommand(SparkSubmitCommandBuilder.java:233)
在组织
这是从 S3 加载文件的正确方法吗?
您无法直接从 S3 加载属性文件。相反,您需要将属性文件下载到主节点的某个位置,然后提交引用该节点上的本地路径的 Spark 作业。您可以使用 command-runner.jar 运行 aws cli 实用程序来进行下载。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)