2
有一个简单的,也许怪异问题执行两次:以下代码DAG执行两次预计,因为我打电话的动作两次:阿帕奇星火:达格没有为reduceByKey
val input = sc.parallelize(List(1,2,3,4))
val result = input.map(x => {
println("!!! Input Map !!!")
errorLines.add(1)
(x,1)
})
//.reduceByKey(_+_)
println(result.count())
println(result.collect())
如果我取消注释reduceByKey
行 - DAG将只执行一次,虽然reduceByKey
是转换,并且我正在调用两次操作。
这是否意味着Spark并不总是重新计算DAG?