如何在bluemixspark上向python笔记本添加jar?

2024-04-26 07:50:15 发布

您现在位置:Python中文网/ 问答频道 /正文

我想在python中使用spark jdbc。第一步是添加一个jar:

%AddJar http://central.maven.org/maven2/org/apache/hive/hive-jdbc/2.0.0/hive-jdbc-2.0.0.jar -f

不过,回应是:

^{pr2}$

如何在python脚本中添加jdbcjar文件?在


Tags: 文件org脚本httpapachesparkjarcentral
3条回答

我认为这在笔记本的Python内核中是不可能的,因为%Addjar是Notebook中scala内核的神奇函数。在

您需要依赖服务提供者将这个jar添加到python内核中。在

另一件事你可以试试sc.地址()但不确定它如何工作。在

Add jar to pyspark when using notebook

谢谢, 查尔斯。在

你可以试试这个:

spark.sparkContext.addFile("filename")

目前,这不仅仅是从python笔记本上实现的;但它被理解为一个重要的需求。在得到支持之前,您可以从python笔记本的同一个spark服务实例中创建一个scala笔记本,%AddJar。然后同一个spark服务实例的所有python笔记本都可以访问它。对于从scala nb添加jar时处于活动状态的py笔记本,需要重新启动它们的内核。在

请注意,这适用于Jupyter 4+上的笔记本实例,但不一定适用于早期的IPython笔记本实例;请从笔记本的“帮助”->“关于”菜单中检查版本。最近创建的任何新笔记本实例都将在Jupyter 4+上。在

相关问题 更多 >