2015-07-10 108 views
1

我是Scala和Spark的新手,并开始在Scala IDE(Eclipse中)编写一个简单的Apache Spark程序。我在我的项目中添加了依赖项jar文件,就像我通常在我的java项目中做的那样,但它无法识别它们,并给我提供了以下错误消息object apache is not a member of package org。我应该如何添加依赖jar文件?如何添加依赖文件到Scala?

我添加的jar文件存在于'lib'目录下,其中安装了Spark。

+0

在Eclipse Scala的项目,点击项目图标,选择底部的属性,选择Java Build Path,选择Add External Jars,选择你想要的Jar,点击Open,点击Ok,这些Jar将在你创建的项目的Referenced Libraries文件夹中,如果需要的话,它们将会是在你的p项目的CLASSPATH。 – 2015-07-10 20:00:37

+0

这实际上是我做了什么,并得到这个错误! –

+0

Spark有一个相互矛盾的问题。我在Eclipse中为它使用Maven项目取得了一些成功,但总体而言,它在我的笔记本电脑上对于Eclipse来说太重了,我决定在Eclipse集成中使用sbt,以便我可以使用它的编辑器,然后执行构建。 – 2015-07-10 21:30:29

回答

2

对于scala,您使用SBT作为依赖管理器和代码编译器。对此处设置它

的更多信息:

http://www.scala-sbt.org/release/tutorial/Setup.html

但是你的build文件看起来是这样的:

name := "Test" 

version := "1.0" 

scalaVersion := "2.10.4" 

libraryDependencies += "org.apache.spark" %% "spark-sql" % "1.3.0" 

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.3.0" 
+0

我可以在Eclipse中做到这一点吗? –

+1

https://github.com/typesafehub/sbteclipse - 你必须练习你的Google-fu。 “Eclipse SBT”,第一个链接! – Seer

+0

sbteclipse有点手动(每次你改变你的依赖关系时你都必须运行一个命令)。我会推荐使用maven来代替; eclipse的Maven集成更加完整,并且它可以与scala一起使用。 – lmm