无法在上运行多个SparkContext

2024-05-28 22:44:59 发布

您现在位置:Python中文网/ 问答频道 /正文

我正处于学习火花的初级阶段。我刚开始用python编写代码pyspark.while公司通过基本代码,我在Jupyter笔记本上发现了这个错误。我已经在我的电脑上安装了spark,它处于工作状态。 我的问题是当我在我的Ubuntu终端上输入“pyspark”时,它会直接进入jupyter的webUI。它不在交互式shell中。我不知道为什么?在

第二次,当我运行下面的代码时,我出错了。。在

from pyspark import SparkContext, SparkConf
conf = SparkConf().setAppName('appName').setMaster('local')
sc = SparkContext(conf=conf)
data = range(10)
dist_data = sc.parallelize(data)
print(dist_data.reduce(lambda a, b: a+b))

以上代码的错误是。。。在

Error Message

ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[*]) created by at /home/trojan/.local/lib/python3.6/site-packages/IPython/utils/py3compat.py:186

那是什么意思?? 请告诉我可能是什么错误! 抱歉,错误图像我不能粘贴清楚,所以我粘贴了错误的屏幕截图希望它能工作!在


Tags: 代码data粘贴localdistconf错误at
2条回答

对于一个python内核(notebook),只能运行一个spark上下文。 如果你需要另一个spark上下文,你可以打开另一个笔记本, 否则,没有理由在同一个笔记本上有多个spark上下文,你可以多次使用它,这取决于你的问题。在

检查是否多次调用SparkContext()。把它当作一个

相关问题 更多 >

    热门问题