我在Windows 10上。我试图将Spark与Python 3.5一起在Jupyter Notebook中运行。我安装了Spark的预构建版本,并设置了SPARK_HOME环境变量。我安装了findspark并运行代码:
import findspark
findspark.init()
我收到一个值错误:
但是,设置了SPARK_HOME变量。 Here是一个屏幕截图,显示了我系统上的环境变量列表。
有没有人遇到这个问题,或者会知道如何解决这个问题?我只发现一个古老的讨论,其中有人将SPARK_HOME设置到错误的文件夹,但是我不认为这是我的情况。
最佳答案
我遇到了同样的问题,并通过安装“vagrant”和“virtual box”解决了该问题。 (请注意,尽管我使用的是Mac OS和Python 2.7.11)
看一下本教程,该教程适用于哈佛CS109类(class):
https://github.com/cs109/2015lab8/blob/master/installing_vagrant.pdf
在终端上“无用重新加载”后,我可以运行我的代码而不会出现错误。
注意附件图像中显示的命令“os.getcwd”的结果之间的差异。
关于python-3.x - 设置了SPARK_HOME env变量,但是Jupyter Notebook没有看到它。 (视窗),我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/38411914/