我是Spark和Python的新手。我已经在Windows上安装了python 3.5.1和Spark-1.6.0-bin-hadoop2.4。
当我从python shell执行sc = SparkContext(“local”,“Simple App”)时,出现以下错误。
你能帮忙吗?
追溯(最近一次通话):
文件“”,第1行,在
sc = SparkContext("local", "Simple App")
文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\context.py”,行112,位于中init
SparkContext._ensure_initialized(self, gateway=gateway)
_ensure_initialized中的文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\context.py”,第245行
SparkContext._gateway = gateway or launch_gateway()
文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\java_gateway.py”,第79行,位于launch_gateway中
proc = Popen(command, stdin=PIPE, env=env)
文件“C:\Python35-32\lib\subprocess.py”,行950,位于中init
restore_signals,start_new_session)
_execute_child中的文件“C:\Python35-32\lib\subprocess.py”,第1220行
startupinfo)
FileNotFoundError:[WinError 2]系统找不到指定的文件
最佳答案
检查您的地址以确保其正确书写。就我而言,我的地址为:
而正确的地址是: