当在簇中处理时,是否可以将驱动程序节点中的spark程序结果的输出写入? df = sqlContext("hdfs://....")
result = df.groupby('abc','cde').count()
result.write.save("hdfs:...resultfile.parquet", format="parquet") # this works fine
res
我正在使用Java中的newAPIHadoopRDD来读取MongoDB集合。 首先,我创建使用下面的类JavaSparkContext对象: public class SparkLauncher {
public JavaSparkContext javaSparkContext ;
public SparkLauncher()
{
javaSpark