J'ai eu ce problème exact avec mysql/mariadb, et j'ai eu un GRAND indice de cette question
Votre commande pyspark devrait donc être :
pyspark --conf spark.executor.extraClassPath=<jdbc.jar> --driver-class-path <jdbc.jar> --jars <jdbc.jar> --master <master-URL>
Surveillez également les erreurs lorsque pyspark démarre comme "Attention :le fichier jar local ... n'existe pas, sauté". et "ERROR SparkContext:Jar not found at ...", cela signifie probablement que vous avez mal orthographié le chemin.