<p>对于不同的<code>jar</code>(“MongoDB连接器for Spark”,<code>mongo-spark-connector</code>)我遇到了类似的问题,但需要注意的是,我通过<code>pyspark</code>在<code>conda</code>(<code>conda install pyspark</code>)中安装了<code>Spark</code>。因此,对特定于<code>Spark</code>的答案的所有帮助都不是完全有用的。对于那些使用<code>conda</code>安装的用户,下面是我拼凑的过程:</p>
<p>1)找到<code>pyspark/jars</code>的位置。我的在这条路上:<code>~/anaconda2/pkgs/pyspark-2.3.0-py27_0/lib/python2.7/site-packages/pyspark/jars</code>。</p>
<p>2)<a href="https://stackoverflow.com/a/30765306/2236315">Download</a>将<code>jar</code>文件放入步骤1中找到的路径,从<a href="https://spark-packages.org/package/mongodb/mongo-spark" rel="noreferrer">this location</a>。</p>
<p>3)现在您应该能够运行这样的代码(代码取自<a href="https://docs.mongodb.com/spark-connector/master/python/write-to-mongodb/" rel="noreferrer">MongoDB official tutorial</a>,使用<a href="https://stackoverflow.com/a/45868189/2236315">Briford Wylie's answer above</a>):</p>
<pre><code>from pyspark.sql import SparkSession
my_spark = SparkSession \
.builder \
.appName("myApp") \
.config("spark.mongodb.input.uri", "mongodb://127.0.0.1:27017/spark.test_pyspark_mbd_conn") \
.config("spark.mongodb.output.uri", "mongodb://127.0.0.1:27017/spark.test_pyspark_mbd_conn") \
.config('spark.jars.packages', 'org.mongodb.spark:mongo-spark-connector_2.11:2.2.2') \
.getOrCreate()
</code></pre>
<p><strong>免责声明:</strong></p>
<p>1)我不知道这个答案是否合适,请告诉我一个更好的地方,我会搬家的。</p>
<p>2)如果您认为我有错误或对上述过程有改进,请发表意见,我将进行修改。</p>