如何设置`SPARK_HOME`?

2024-05-13 12:59:11 发布

您现在位置:Python中文网/ 问答频道 /正文

安装了apache-maven-3.3.3、scala 2.11.6,然后运行:

$ git clone git://github.com/apache/spark.git -b branch-1.4
$ cd spark
$ build/mvn -DskipTests clean package

最后:

$ git clone https://github.com/apache/incubator-zeppelin
$ cd incubator-zeppelin/
$ mvn install -DskipTests

然后运行服务器:

$ bin/zeppelin-daemon.sh start

运行一个以%pyspark开头的简单笔记本时,出现了一个关于py4j未找到的错误。刚刚做了pip install py4jref)。

现在我得到这个错误:

pyspark is not responding Traceback (most recent call last):
  File "/tmp/zeppelin_pyspark.py", line 22, in <module>
    from pyspark.conf import SparkConf
ImportError: No module named pyspark.conf

我试着把我的SPARK_HOME设置为:/spark/python:/spark/python/lib。没有变化。


Tags: installgitgithubcomcloneapache错误cd