PostgreSQL
 sql >> Datenbank >  >> RDS >> PostgreSQL

Apache Spark:JDBC-Verbindung funktioniert nicht

Ich hatte genau dieses Problem mit mysql/mariadb und bekam aus dieser Frage einen GROSSEN Hinweis

Ihr pyspark-Befehl sollte also lauten:

pyspark --conf spark.executor.extraClassPath=<jdbc.jar> --driver-class-path <jdbc.jar> --jars <jdbc.jar> --master <master-URL>

Achten Sie auch auf Fehler beim Start von pyspark wie „Warning:Local jar … does not exist, skipping.“ und "ERROR SparkContext:Jar not found at ...", diese bedeuten wahrscheinlich, dass Sie den Pfad falsch geschrieben haben.