在使用Sparkit Learn执行以下简单代码的过程中:
from splearn.svm import SparkLinearSVC
spark=SparkLinearSVC()
我收到以下错误消息:
ImportError: pyspark home needs to be added to PYTHONPATH.
export PYTHONPATH=$PYTHONPATH:$SPARK_HOME/python:../
按照这些说法: unable to add spark to PYTHONPATHimporting pyspark in python shell 我已经将这些pythonpath的所有可能配置添加到了我的.bashrc中,但是错误仍然在发生。你知道吗
当前我的.bashrc路径如下所示:
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export PATH=$JAVA_HOME/bin:$PATH
export PATH=/home/123/anaconda2/bin:$PATH
export SPARK_HOME=/home/123/Downloads/spark-1.6.1-bin-hadoop2.6
export PATH=$SPARK_HOME/bin:$PATH
export PATH=$JAVA_HOME/jre/lib/amd64/server:$PATH
export PATH=$JAVA_HOME/jre/lib/amd64:$PATH
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.9-src.zip:$PYTHONPATH
有什么可能的解决办法吗?你知道吗
目前没有回答
相关问题 更多 >
编程相关推荐