2024-04-26 07:50:15 发布
网友
我想在python中使用spark jdbc。第一步是添加一个jar:
%AddJar http://central.maven.org/maven2/org/apache/hive/hive-jdbc/2.0.0/hive-jdbc-2.0.0.jar -f
不过,回应是:
如何在python脚本中添加jdbcjar文件?在
我认为这在笔记本的Python内核中是不可能的,因为%Addjar是Notebook中scala内核的神奇函数。在
您需要依赖服务提供者将这个jar添加到python内核中。在
另一件事你可以试试sc.地址()但不确定它如何工作。在
Add jar to pyspark when using notebook
谢谢, 查尔斯。在
你可以试试这个:
spark.sparkContext.addFile("filename")
目前,这不仅仅是从python笔记本上实现的;但它被理解为一个重要的需求。在得到支持之前,您可以从python笔记本的同一个spark服务实例中创建一个scala笔记本,%AddJar。然后同一个spark服务实例的所有python笔记本都可以访问它。对于从scala nb添加jar时处于活动状态的py笔记本,需要重新启动它们的内核。在
%AddJar
请注意,这适用于Jupyter 4+上的笔记本实例,但不一定适用于早期的IPython笔记本实例;请从笔记本的“帮助”->“关于”菜单中检查版本。最近创建的任何新笔记本实例都将在Jupyter 4+上。在
我认为这在笔记本的Python内核中是不可能的,因为%Addjar是Notebook中scala内核的神奇函数。在
您需要依赖服务提供者将这个jar添加到python内核中。在
另一件事你可以试试sc.地址()但不确定它如何工作。在
Add jar to pyspark when using notebook
谢谢, 查尔斯。在
你可以试试这个:
目前,这不仅仅是从python笔记本上实现的;但它被理解为一个重要的需求。在得到支持之前,您可以从python笔记本的同一个spark服务实例中创建一个scala笔记本,
%AddJar
。然后同一个spark服务实例的所有python笔记本都可以访问它。对于从scala nb添加jar时处于活动状态的py笔记本,需要重新启动它们的内核。在请注意,这适用于Jupyter 4+上的笔记本实例,但不一定适用于早期的IPython笔记本实例;请从笔记本的“帮助”->“关于”菜单中检查版本。最近创建的任何新笔记本实例都将在Jupyter 4+上。在
相关问题 更多 >
编程相关推荐