PostgreSQL
 sql >> Base de données >  >> RDS >> PostgreSQL

Apache Spark :la connexion JDBC ne fonctionne pas

J'ai eu ce problème exact avec mysql/mariadb, et j'ai eu un GRAND indice de cette question

Votre commande pyspark devrait donc être :

pyspark --conf spark.executor.extraClassPath=<jdbc.jar> --driver-class-path <jdbc.jar> --jars <jdbc.jar> --master <master-URL>

Surveillez également les erreurs lorsque pyspark démarre comme "Attention :le fichier jar local ... n'existe pas, sauté". et "ERROR SparkContext:Jar not found at ...", cela signifie probablement que vous avez mal orthographié le chemin.