Jupyter+Pypark自动压缩机

2024-06-16 08:48:03 发布

您现在位置:Python中文网/ 问答频道 /正文

为新手朱皮特·奎森道歉-

PYJUTER使用本手册安装- https://blog.sicara.com/get-started-pyspark-jupyter-guide-tutorial-ae2fe84f594f

一切似乎都可以,但我没有一些“嵌套”函数的自动完成功能

例如-运行“spark”->;我得到spark session

当我按“spark”后的tab键时,->;我会得到可能的建议列表,例如“read”

但之后按tab键火花。阅读. 什么都不显示。虽然我希望显示诸如“csv”,“parquat”等选项。。。在

重要提示-运行”spark.read.csv(“1.txt”)“工程

还-尝试应用来自`ipython` tab autocomplete does not work on imported module的建议,但没有成功

我错过了什么?在


Tags: csvhttpsgtcomreadgetblogtab
2条回答

这可以通过手动导入或设置python的.env变量来完成。在

  1. 在python会话/笔记本中。在
import rlcompleter, readline
readline.parse_and_bind("tab: complete")
  1. 在PySpark启动时启用它-我的例子。在

.bash_配置文件

^{pr2}$

Python

import rlcompleter, readline
readline.parse_and_bind("tab: complete")

我开发了一个基于TabNine的Jupyter笔记本扩展,它提供基于深度学习的代码自动完成。当然,它也支持Pyspark。这是我工作的Github链接:jupyter-tabnine。在

它现在在pypi index上提供。只需发出以下命令,然后享受它:)

pip3 install jupyter-tabnine
jupyter nbextension install  py jupyter_tabnine
jupyter nbextension enable  py jupyter_tabnine
jupyter serverextension enable  py jupyter_tabnine

demo

相关问题 更多 >