2017-07-10 89 views

回答

2

您可以将RDD转换为DataFrame然后保存。

data.toDF().write.format("orc").save("/path/to/save/file") 

读回,用sqlContext

import org.apache.spark.sql._ 
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc) 

val data = sqlContext.read.format("orc").load("/path/to/file/*") 
相关问题