我的需求是启用ODBC/JDBC访问SparkSQL 临时表,其中有一个Spark中的DataFrame(混合基于JSON和流)。 我使它在Spark 1.6中工作,然后最近升级到Spark到2.1.1。我调整了我的代码作为this question中的第二个应答者。我注意到,对这一条款弃用警告,但是: val sqlContext = new org.apache.spark.sql.SQLCo
我有下表获取增量更新。我需要编写一个普通的Hive查询来合并具有相同键值和最新值的行。 Key | A | B | C | Timestamp
K1 | X | Null | Null | 2015-05-03
K1 | Null | Y | Z | 2015-05-02
K1 | Foo | Bar | Baz | 2015-05-01
想要得到的: Key | A | B | C |