我是Scala和Spark的新手。我需要为以下字数计划编写JUnit:需要编写Scala代码的JUnit测试
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark._
object SparkWordCount {
def main(args: Array[String]) {
meth()
}
def meth() {
//Spark Config object having cluster information
val sparkConfig = new SparkConf()
.setAppName("SparkWordCount")
.setMaster("local")
val sc = new SparkContext(sparkConfig)
val input = sc.textFile("C:\\SparkW\\input\\inp.txt")
val count = input.flatMap(line ⇒ line.split(" "))
.map(word ⇒ (word, 1))
.reduceByKey(_ + _)
count.saveAsTextFile("outfile")
System.out.println("OK");
}
}
如何使用JUnit为此编写测试?
在看看Spark文档以了解应该如何测试之后,您首先尝试了些什么? – cchantep
请阅读:https://meta.stackoverflow.com/questions/284236/why-is-can-someone-help-me-not-an-actual-question ... **你**首先把你的想法/当前代码;我们帮助解决问题。我们不为你做第一步。 – GhostCat
如果您熟悉Java,则可以根据需要从Java测试您的Scala代码。 – stefanobaghino