擅长:python、mysql、java
<p>在RDD中,分隔符可以使用多个字符</p>
<p>你可以试试这个代码</p>
<pre><code>from pyspark import SparkConf, SparkContext
from pyspark.sql import SQLContext
conf = SparkConf().setMaster("local").setAppName("test")
sc = SparkContext(conf = conf)
input = sc.textFile("yourdata.csv").map(lambda x: x.split(']|['))
print input.collect()
</code></pre>
<p>可以使用<code>toDF()</code>函数将RDD转换为DataFrame(如果需要的话),如果需要的话,不要忘记指定模式</p>