PostgreSQL
 sql >> Database >  >> RDS >> PostgreSQL

Apache Spark:connessione JDBC non funzionante

Ho avuto questo problema esatto con mysql/mariadb e ho avuto un GRANDE indizio da questa domanda

Quindi il tuo comando pyspark dovrebbe essere:

pyspark --conf spark.executor.extraClassPath=<jdbc.jar> --driver-class-path <jdbc.jar> --jars <jdbc.jar> --master <master-URL>

Controlla anche gli errori quando pyspark inizia come "Attenzione:jar locale... non esiste, sto saltando". e "ERROR SparkContext:Jar not found at ...", probabilmente significano che hai sbagliato a scrivere il percorso.