我正在运行 pyspark 但有时它可能不稳定。有几次它在执行此命令时崩溃
spark_conf = SparkConf()
并出现以下错误消息
File "/home/user1/spark/spark-1.5.1-bin-hadoop2.6/python/pyspark/conf.py", line 106, in __init__
self._jconf = _jvm.SparkConf(loadDefaults)
File "/home/user1/spark/spark-1.5.1-bin-hadoop2.6/python/lib/py4j-0.8.2.1-src.zip/py4j/java_gateway.py", line 772, in __getattr__
raise Py4JError('{0} does not exist in the JVM'.format(name))
Py4JError: SparkConf does not exist in the JVM
知道有什么问题吗?感谢您的帮助!
pyspark 上下文中不存在 SparkConf,请尝试:
from pyspark import SparkConf
在 pyspark 控制台或代码中。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)