如何使用Spark scala遍历下面的RDD。我想要打印Seq中与关联密钥相关的每个值 res1: org.apache.spark.rdd.RDD[(java.lang.String, Seq[java.lang.String])] = MapPartitionsRDD[6] at groupByKey at <console>:14
我试过下面的代码。 val ss=mapfile.ma
所以我对函数式编程以及Spark和Scala相当新颖,所以如果这很明显,请原谅我......但基本上我有一个HDFS文件列表,一定的标准,即是这样的: val List = (
"hdfs:///hive/some.db/BigAssHiveTable/partyear=2014/partmonth=06/partday=01/000140_0",
"hdfs:///hive/some.db/B