0
你知道,如果下面的行可以处理JDBC池连接:df.write.jdbc是否处理JDBC池连接?
df.write
.mode("append")
.jdbc(url, table, prop)
你有什么想法?谢谢
你知道,如果下面的行可以处理JDBC池连接:df.write.jdbc是否处理JDBC池连接?
df.write
.mode("append")
.jdbc(url, table, prop)
你有什么想法?谢谢
我不要认为所以。
spark.read.jdbc
请求Spark SQL创建一个JDBCRelation。最终执行buildScan,然后调用JDBCRDD.scanTable
导致JdbcUtils.createConnectionFactory(options)为JDBCRDD
。
因此,您会看到driver.connect(options.url, options.asConnectionProperties),除非driver
处理连接池Spark SQL不会这样做。
(只注意到你问另外一个问题)
df.write.jdbc
是相似的。它再次导致JDBCRelation
使用相同的RDD。