我之前将 PySpark 作为通过 pip 安装的 Python 包安装,最近我使用干净版本的 Python 卸载了它并下载了独立版本。
在我的用户变量中,我创建了一个名为:SPARK_HOME 的路径
值为:C:\spark-2.3.2-bin-hadoop2.7\bin
在路径下的系统变量中,我输入了一个条目:C:\spark-2.3.2-bin-hadoop2.7\bin
当我运行 pyspark 时 https://i.stack.imgur.com/xm0x9.png
我也无法运行spark-shell。有任何想法吗?
SPARK_HOME应该没有bin
文件夹。因此,
Set SPARK_HOME
to C:\spark-2.3.2-bin-hadoop2.7\
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)