在spark shell(scala)中,我们导入,
org.apache.spark网站.sql.hive.thriftserver._
为特定的配置单元上下文以编程方式启动配置单元节约服务器
HiveThriftServer2.startWithContext(hiveContext)为该特定会话公开已注册的临时表。在
如何使用python实现同样的功能?python上是否有用于导入HiveThriftServer的包/api?任何其他想法/建议。在
我们使用pyspark创建了一个数据帧
谢谢
拉维·纳拉亚南
Tags:
您可以使用py4javagateway导入它。以下代码适用于spark2.0.2,可以通过beeline查询python脚本中注册的临时表。在
然后去beeline检查它是否正确启动:
^{pr2}$它应该显示用python创建的表和临时表/视图,包括上面的“myTable”和“myTempView”。为了查看临时视图,有必要使用相同的spark会话
(参见ans:Avoid starting HiveThriftServer2 with created context programmatically。
注意:即使Thrift服务器从终端启动并连接到同一个元存储,也可以访问配置单元表,但是临时视图无法访问,因为它们在spark会话中,并且不会写入元存储)
相关问题 更多 >
编程相关推荐