我在尝试开发独立应用程序apache spark
并排scala sbt
我一次又一次地得到这个错误。Apache Spark找不到类
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf at AuctionsApp$.main(AuctionsApp.scala:5)
这是代码片段。
import org.apache.spark.SparkConf
object AuctionsApp {
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setAppName("AuctionsApp")
println(conf)
}
}
build.sbt
文件
name := "AuctionsApp"
version := "1.0"
scalaVersion := "2.10.5"
libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.2.0-cdh5.3.2" % "provided"
resolvers += "Cloudera Repository" at "https://repository.cloudera.com/artifactory/cloudera-repos/"
我可以按命令导航到SparkConf
文件,并在import
声明点击类的名称,意味着它驻留还有旁边的其他代码。
项目建设也是成功的。
任何帮助表示赞赏。
PS。使用IntelliJ Idea CE
版2016.3