我是Spark和Python的新手。我已经在Windows上安装了python 3.5.1和Spark-1.6.0-bin-hadoop2.4。

当我从python shell执行sc = SparkContext(“local”,“Simple App”)时,出现以下错误。

你能帮忙吗?




追溯(最近一次通话):

文件“”,第1行,在

sc = SparkContext("local", "Simple App")

文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\context.py”,行112,位于中init
SparkContext._ensure_initialized(self, gateway=gateway)

_ensure_initialized中的文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\context.py”,第245行
SparkContext._gateway = gateway or launch_gateway()

文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\java_gateway.py”,第79行,位于launch_gateway中
proc = Popen(command, stdin=PIPE, env=env)

文件“C:\Python35-32\lib\subprocess.py”,行950,位于中init
restore_signals,start_new_session)

_execute_child中的文件“C:\Python35-32\lib\subprocess.py”,第1220行
startupinfo)

FileNotFoundError:[WinError 2]系统找不到指定的文件

最佳答案

检查您的地址以确保其正确书写。就我而言,我的地址为:



而正确的地址是:

10-07 13:31
查看更多