Py4JError:JVM 中不存在 SparkConf

2023-12-23

我正在运行 pyspark 但有时它可能不稳定。有几次它在执行此命令时崩溃

spark_conf = SparkConf()

并出现以下错误消息

     File "/home/user1/spark/spark-1.5.1-bin-hadoop2.6/python/pyspark/conf.py", line 106, in __init__
self._jconf = _jvm.SparkConf(loadDefaults)
     File "/home/user1/spark/spark-1.5.1-bin-hadoop2.6/python/lib/py4j-0.8.2.1-src.zip/py4j/java_gateway.py", line 772, in __getattr__
raise Py4JError('{0} does not exist in the JVM'.format(name))
     Py4JError: SparkConf does not exist in the JVM

知道有什么问题吗?感谢您的帮助!


pyspark 上下文中不存在 SparkConf,请尝试:

from pyspark import SparkConf

在 pyspark 控制台或代码中。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Py4JError:JVM 中不存在 SparkConf 的相关文章

随机推荐