2024-04-26 17:51:10 发布
网友
当我尝试:
from pyspark import SparkContext, SparkConf sc=SparkContext()
我得到:
解决办法是什么?在
pyspark依赖于sparkSDK。在使用pyspark之前,需要先安装它。在
pyspark
设置完成后,您需要设置环境变量SPARK_HOME来告诉pyspark在哪里查找{}安装。如果您使用的是*nix系统,您可以通过在.bashrc中添加以下内容来实现这一点
SPARK_HOME
.bashrc
export SPARK_HOME=<location of spark install>
如果使用Windows,有一种通过GUI here设置变量的复杂方法。通过DOS,您可以使用set代替export:
set
export
pyspark
依赖于sparkSDK。在使用pyspark
之前,需要先安装它。在设置完成后,您需要设置环境变量}安装。如果您使用的是*nix系统,您可以通过在
SPARK_HOME
来告诉pyspark
在哪里查找{.bashrc
中添加以下内容来实现这一点如果使用Windows,有一种通过GUI here设置变量的复杂方法。通过DOS,您可以使用
^{pr2}$set
代替export
:相关问题 更多 >
编程相关推荐