Spark non riesce a trovare com.mongodb.spark.sql.DefaultSource
pacchetto, da cui il messaggio di errore.
Tutto il resto sembra a posto, basta includere il pacchetto Mongo Spark:
> $SPARK_HOME/bin/pyspark --packages org.mongodb.spark:mongo-spark-connector_2.11:2.2.0
Oppure assicurati che il file jar si trovi nel percorso corretto.
Assicurati di controllare la versione del pacchetto Mongo-Spark richiesta per la tua versione di Spark: https://spark-packages.org/package/mongodb/mongo-spark