我从pyspark
代码调用scala类。如何将SparkContext
传递给Scala
主类
您可以检查下面的链接是否包含将SQLContext
对象传递给Scala参数化类的内容。以同样的方式,我想把SparkContext
传递给scala
参数化类
How to use a Scala class inside Pyspark
Scala类代码:
class Item(val sc: SparkContext) {
def process = println("This process will call")
}
Python类调用代码:
simpleObject = sc._jvm.package_name.Item(**NEED TO PASS SPARKCONTEXT OBJECT HERE**)
simpleObject.process()
那么如何将SparkContext
传递给Item
类
提前谢谢
目前没有回答
相关问题 更多 >
编程相关推荐