Spark kann com.mongodb.spark.sql.DefaultSource
nicht finden Paket, daher die Fehlermeldung.
Alles, was sonst gut aussieht, muss nur das Mongo Spark-Paket enthalten:
> $SPARK_HOME/bin/pyspark --packages org.mongodb.spark:mongo-spark-connector_2.11:2.2.0
Oder stellen Sie sicher, dass sich die JAR-Datei im richtigen Pfad befindet.
Stellen Sie sicher, dass Sie die für Ihre Version von Spark erforderliche Version des Mongo-Spark-Pakets überprüfen: https://spark-packages.org/package/mongodb/mongo-spark