擅长:python、mysql、java
<p>给出的答案足以解决这个问题,但我想分享另一种可能引入新版本Spark<em>(我不确定)的方法,因此给出的答案没有抓住它。</p>
<p>我们可以使用<code>col("colum_name")</code>关键字访问spark语句中的列:</p>
<pre><code>from pyspark.sql.functions import col , column
changedTypedf = joindf.withColumn("show", col("show").cast("double"))
</code></pre>