没有名为'pyspark'的模块 VSCODE Jupyter

1 投票
1 回答
37 浏览
提问于 2025-04-14 17:52

基本上,我安装了pyspark等工具,它在终端和jupyterlab中都能正常工作,但在vscode的jupyter中却出现了这个错误,为什么呢?

我设置了hadoop、spark和java的路径和环境变量,但在vscode中还是不行,使用其他内核时也出现了这个错误:org.apache.spark.SparkException: Python工作进程意外退出(崩溃)

1 个回答

0

原因是这个软件包没有在VSCode用来运行Jupyter的Python环境中安装。

你需要确认这个环境的位置,然后在那个地方运行"pip install the_package"来安装它。

撰写回答