如图所示,当我导入 Spark 包时出现错误。请帮忙。当我将鼠标悬停在那里时,它显示“对象 apache 不是包组织的成员”。
我搜索了这个错误,它显示 Spark jars 尚未导入。所以,我也导入了“spark-assemble-1.4.1-hadoop2.2.0.jar”。但仍然是同样的错误。下面是我实际想要运行的:
import org.apache.spark.{SparkConf, SparkContext}
object ABC {
def main(args: Array[String]){
//Scala Main Method
println("Spark Configuration")
val conf = new SparkConf()
conf.setAppName("My First Spark Scala Application")
conf.setMaster("spark://ip-10-237-224-94:7077")
println("Creating Spark Context")
}
}
Adding spark-core
您的类路径中的 jar 应该可以解决您的问题。另外,如果您正在使用一些构建工具,例如Maven https://maven.apache.org/ or Gradle http://gradle.org/(如果没有,那么你应该因为spark-core有很多依赖项,并且对于不同的jar你会不断遇到这样的问题),尝试使用这些工具提供的Eclipse任务来正确设置项目中的类路径。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)