1
我试图构建一个非常基本的具有火花依赖性的scala脚本。 但我无法制作出它的罐子。产生使用sbt解决火花依赖关系
错误:
sbt.ResolveException:未解析的依赖性:org.apache.spark#火花core_2.12; 1.6.0-快照:未发现
我的身材。 SBT:
import Dependencies._
lazy val root = (project in file(".")).
settings(
inThisBuild(List(
organization := "com.example",
scalaVersion := "2.12.1",
version := "0.1.0-SNAPSHOT"
)),
name := "Hello",
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.6.0-SNAPSHOT",
resolvers += Resolver.mavenLocal
)
`
package example
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
object Hello {
def main(args: Array[String]) {
val logFile = "/Users/dhruvsha/Applications/spark/README.md"
val conf = new SparkConf().setAppName("Simple Application")
val sc = new SparkContext(conf)
val logData = sc.textFile(logFile, 2).cache()
val numAs = logData.filter(line => line.contains("a")).count()
val numBs = logData.filter(line => line.contains("b")).count()
println(s"Lines with a: $numAs, Lines with b: $numBs")
sc.stop()
}
}
我的源斯卡拉是:
/exampleapp/main/scala/example/Hello.scala
项目名称是ExampleApp中。
阶版本2.12.2
火花1.6.0版本
SBT版本0.13.13
任何形式的帮助将受到赞赏和将是巨大的,如果你能提供学习关于sbt和spark依赖的资源。
请参阅我是新来的scala,spark和sbt。
它工作得很好。你能指出它有什么问题吗?在这里2.10和1.6.0是什么,为什么我需要添加这些。请看我对它真的很陌生,如果你能给我一些资源来学习sbt会很好。 – dhruvsharma
如果您访问[maven dependency repo](https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.10/1.6.0),您可以在sbt选项卡下看到依赖格式。 “org.apache.spark”是groupId,“spark-core_2.10”是artifactId,“1.6.0”是修订版。你可以看看[sbt-Reference](http://www.scala-sbt.org/0.13/docs/Library-Management.html) –
有人可以解释为什么它是一个downvote? –