key错误:pysp中的“SPARK_HOME”

2024-04-26 17:51:10 发布

您现在位置:Python中文网/ 问答频道 /正文

当我尝试:

from pyspark import SparkContext, SparkConf
sc=SparkContext()

我得到:

^{pr2}$

解决办法是什么?在


Tags: fromimportpysparkscsparkcontextpr2解决办法sparkconf
1条回答
网友
1楼 · 发布于 2024-04-26 17:51:10

pyspark依赖于sparkSDK。在使用pyspark之前,需要先安装它。在

设置完成后,您需要设置环境变量SPARK_HOME来告诉pyspark在哪里查找{}安装。如果您使用的是*nix系统,您可以通过在.bashrc中添加以下内容来实现这一点

export SPARK_HOME=<location of spark install>

如果使用Windows,有一种通过GUI here设置变量的复杂方法。通过DOS,您可以使用set代替export

^{pr2}$

相关问题 更多 >