安装apache-maven-3.3.3,scala 2.11.6,然后运行:

$ git clone git://github.com/apache/spark.git -b branch-1.4
$ cd spark
$ build/mvn -DskipTests clean package

最后:
$ git clone https://github.com/apache/incubator-zeppelin
$ cd incubator-zeppelin/
$ mvn install -DskipTests

然后运行服务器:
$ bin/zeppelin-daemon.sh start

运行一个以%pyspark开头的简单笔记本,我收到关于找不到py4j的错误。刚做了pip install py4j(ref)。

现在我得到这个错误:
pyspark is not responding Traceback (most recent call last):
  File "/tmp/zeppelin_pyspark.py", line 22, in <module>
    from pyspark.conf import SparkConf
ImportError: No module named pyspark.conf

我尝试将SPARK_HOME设置为:/spark/python:/spark/python/lib。没变化。

最佳答案

需要两个环境变量:

SPARK_HOME=/spark
PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-VERSION-src.zip:$PYTHONPATH

关于python - 将 `SPARK_HOME`设置为什么?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/30824818/

10-12 17:24
查看更多