完整错误:
线程“main”中的异常java.lang.NoSuchMethodError:
scala.Predef$.refArrayOps([Ljava/lang/Object;)[Ljava/lang/Object;
在 org.spark_module.SparkModule$.main(SparkModule.scala:62)
在 org.spark_module.SparkModule.main(SparkModule.scala)
在 sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)
在 sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
在 sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
在 java.lang.reflect.Method.invoke(Method.java:498)
在 org.apache.spark.deploy.JavaMainApplication.start(SparkApplication.scala:52)
在 org.apache.spark.deploy.SparkSubmit.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:845)
在 org.apache.spark.deploy.SparkSubmit.doRunMain$1(SparkSubmit.scala:161)
在 org.apache.spark.deploy.SparkSubmit.submit(SparkSubmit.scala:184)
在 org.apache.spark.deploy.SparkSubmit.doSubmit(SparkSubmit.scala:86)
在 org.apache.spark.deploy.SparkSubmit$$anon$2.doSubmit(SparkSubmit.scala:920)
在 org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:929)
在 org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
当我在 IntelliJ 中编译并运行代码时,它始终执行得很好。当我将 .jar 作为 Spark 作业(运行时)提交时,会显示该错误。
第 62 行包含:for ((elem, i) <- args.zipWithIndex)
。为了确定起见,我注释掉了其余的代码,并且错误一直显示在该行上。
一开始我以为是zipWithIndex
的错。然后我把它改成了for (elem <- args)
你猜怎么着,错误仍然显示。是个for
造成这个?
Google 搜索总是指出用于编译的版本和运行时使用的版本之间的 Scala 版本不兼容,但我无法找到解决方案。
I tried this检查 IntelliJ 使用的 Scala 版本,这里是与 Scala 相关的所有内容模块 > Scala:
然后我做了this检查 Scala 的运行时版本,输出为:
(文件:/C:/Users/me/.gradle/caches/modules-2/files-2.1/org.scala-lang/scala-library/2.12.11/1a0634714a956c1aae9abefc83acaf6d4eabfa7d/scala-library-2.12.11.jar
)
版本好像很匹配...
这是我的gradle.build(包括fatJar
task)
group 'org.spark_module'
version '1.0-SNAPSHOT'
apply plugin: 'scala'
apply plugin: 'idea'
apply plugin: 'eclipse'
repositories {
mavenCentral()
}
idea {
project {
jdkName = '1.8'
languageLevel = '1.8'
}
}
dependencies {
implementation group: 'org.scala-lang', name: 'scala-library', version: '2.12.11'
implementation group: 'org.apache.spark', name: 'spark-core_2.12'//, version: '2.4.5'
implementation group: 'org.apache.spark', name: 'spark-sql_2.12'//, version: '2.4.5'
implementation group: 'com.datastax.spark', name: 'spark-cassandra-connector_2.12', version: '2.5.0'
implementation group: 'org.apache.spark', name: 'spark-mllib_2.12', version: '2.4.5'
implementation group: 'log4j', name: 'log4j', version: '1.2.17'
implementation group: 'org.scalaj', name: 'scalaj-http_2.12', version: '2.4.2'
}
task fatJar(type: Jar) {
zip64 true
from {
configurations.runtimeClasspath.collect { it.isDirectory() ? it : zipTree(it) }
} {
exclude "META-INF/*.SF"
exclude "META-INF/*.DSA"
exclude "META-INF/*.RSA"
}
manifest {
attributes 'Main-Class': 'org.spark_module.SparkModule'
}
with jar
}
configurations.all {
resolutionStrategy {
force 'com.google.guava:guava:12.0.1'
}
}
compileScala.targetCompatibility = "1.8"
compileScala.sourceCompatibility = "1.8"
jar {
zip64 true
getArchiveFileName()
from {
configurations.compile.collect {
it.isDirectory() ? it : zipTree(it)
}
}
manifest {
attributes 'Main-Class': 'org.spark_module.SparkModule'
}
exclude 'META-INF/*.RSA', 'META-INF/*.SF', 'META-INF/*.DSA'
}
构建(胖)罐子:
gradlew fatJar
在 IntelliJ 的终端中。
运行作业:
spark-submit.cmd .\SparkModule-1.0-SNAPSHOT.jar
在 Windows PowerShell 中。
谢谢
EDIT:
火花提交.cmd and Spark-shell.cmd都显示 Scala 版本2.11.12,所以是的,它们与我在 IntelliJ 中使用的不同(2.12.11)。问题是,在Spark的下载页面, 只有一个Scala 2.12 的 Spark 发行版而且它没有 Hadoop;这是否意味着我必须将我的系统从 2.12 降级到 2.11gradle.build?