我正在尝试将我的数据框写入mysql表。当我尝试写作时,我得到No suitable driver found for jdbc:mysql://dbhost
。PySpark没有找到适合jdbc的驱动程序:mysql:// dbhost
作为预处理的一部分,我从同一个数据库中的其他表中读取并且没有问题。我可以完成全部运行并将行保存到实木复合地板文件,因此它绝对是从MySQL数据库读取的。
我使用提交:
spark-submit --conf spark.executor.extraClassPath=/home/user/Downloads/mysql-connector-java-5.1.35-bin.jar --driver-class-path /home/user/Downloads/mysql-connector-java-5.1.35-bin.jar --jars /home/user/Downloads/mysql-connector-java-5.1.35-bin.jar main.py
,我使用写:
df.write.jdbc(url="jdbc:mysql://dbhost/dbname", table="tablename", mode="append", properties={"user":"dbuser", "password": "s3cret"})