我是Scala和Spark的新手,并开始在Scala IDE(Eclipse中)编写一个简单的Apache Spark程序。我在我的项目中添加了依赖项jar文件,就像我通常在我的java项目中做的那样,但它无法识别它们,并给我提供了以下错误消息object apache is not a member of package org
。我应该如何添加依赖jar文件?如何添加依赖文件到Scala?
我添加的jar文件存在于'lib'目录下,其中安装了Spark。
我是Scala和Spark的新手,并开始在Scala IDE(Eclipse中)编写一个简单的Apache Spark程序。我在我的项目中添加了依赖项jar文件,就像我通常在我的java项目中做的那样,但它无法识别它们,并给我提供了以下错误消息object apache is not a member of package org
。我应该如何添加依赖jar文件?如何添加依赖文件到Scala?
我添加的jar文件存在于'lib'目录下,其中安装了Spark。
对于scala,您使用SBT作为依赖管理器和代码编译器。对此处设置它
的更多信息:
http://www.scala-sbt.org/release/tutorial/Setup.html
但是你的build文件看起来是这样的:
name := "Test"
version := "1.0"
scalaVersion := "2.10.4"
libraryDependencies += "org.apache.spark" %% "spark-sql" % "1.3.0"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.3.0"
在Eclipse Scala的项目,点击项目图标,选择底部的属性,选择Java Build Path,选择Add External Jars,选择你想要的Jar,点击Open,点击Ok,这些Jar将在你创建的项目的Referenced Libraries文件夹中,如果需要的话,它们将会是在你的p项目的CLASSPATH。 – 2015-07-10 20:00:37
这实际上是我做了什么,并得到这个错误! –
Spark有一个相互矛盾的问题。我在Eclipse中为它使用Maven项目取得了一些成功,但总体而言,它在我的笔记本电脑上对于Eclipse来说太重了,我决定在Eclipse集成中使用sbt,以便我可以使用它的编辑器,然后执行构建。 – 2015-07-10 21:30:29