没有名为'pyspark'的模块 VSCODE Jupyter
基本上,我安装了pyspark等工具,它在终端和jupyterlab中都能正常工作,但在vscode的jupyter中却出现了这个错误,为什么呢?
我设置了hadoop、spark和java的路径和环境变量,但在vscode中还是不行,使用其他内核时也出现了这个错误:org.apache.spark.SparkException: Python工作进程意外退出(崩溃)
1 个回答
0
原因是这个软件包没有在VSCode用来运行Jupyter的Python环境中安装。
你需要确认这个环境的位置,然后在那个地方运行"pip install the_package
"来安装它。