我一直在按照本教程为 scala 安装 Spark:https://www.tutorialspoint.com/apache_spark/apache_spark_installation.htm https://www.tutorialspoint.com/apache_spark/apache_spark_installation.htm
然而,当我尝试跑步时spark-shell
我在控制台中收到此错误。
/usr/local/spark/bin/spark-shell: line 57: /usr/local/spark/bin/bin/spark-submit: No such file or directory
我的 bashrc 看起来像这样:
export PATH = $PATH:/usr/local/spark/bin
export SCALA_HOME=/usr/local/scala/bin
export PYTHONPATH=$SPARK_HOME/python
那么我错了什么?我之前为 python 安装了 Spark,但现在我尝试使用 scala。 Spark 是否混淆了变量?谢谢。
你有一个bin
它正在搜索的路径中太多:
/usr/local/spark/bin/bin/spark-submit
应该
/usr/local/spark/bin/spark-submit
The SPARK_HOME
应该/usr/local/spark/
就你而言,不是/usr/local/spark/bin/
现在看来就是这样。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)