我有4个数据帧,其中只有一行和一列,我想把它们组合成一个数据帧。在python中,我会使用zip函数来实现这一点,但我需要一种在pyspark中实现这一点的方法。有什么建议吗?你知道吗
数据帧如下所示:
+--------------------------+
|sum(sum(parcelUBLD_SQ_FT))|
+--------------------------+
| 1.13014806E8|
+--------------------------+
+---------------------+
|sum(parcelUBLD_SQ_FT)|
+---------------------+
| 1.13014806E8|
+---------------------+
+---------------+
|count(parcelID)|
+---------------+
| 45932|
+---------------+
+----------------+
|sum(parcelCount)|
+----------------+
| 45932|
+----------------+
我希望它看起来像这样:
+--------------------------+---------------------+---------------+----------------+
|sum(sum(parcelUBLD_SQ_FT))|sum(parcelUBLD_SQ_FT)|count(parcelID)|sum(parcelCount)|
+--------------------------+---------------------+---------------+----------------+
| 1.13014806E8| 1.13014806E8| 45932| 45932|
+--------------------------+---------------------+---------------+----------------+
因为您明确指定所有数据帧都有一行,所以可以使用交叉连接来获得所需的输出
相关问题 更多 >
编程相关推荐