2015-09-02 100 views
2

Spark已经通过Maven在Intellij中编译。我正在运行其中一个测试套件。它启动但在基本的Scala库上失败。到底是怎么回事?Spark编译但无法在Intellij中运行测试程序?

Caused by: java.lang.ClassNotFoundException: scala.collection.GenTraversableOnce$class 

注意,这是一个Maven项目和测试使用mvn test在命令行中成功运行。

这里是Scala库信息:

enter image description here

下面是该项目的定义:

enter image description here

下面是该斯卡拉2.11依赖模块信息:

enter image description here 这里是运行配置N:

enter image description here

这里是正在运行的结果:

enter image description here

UPDATE我被问及pom.xml中。这是scala-2.11的spark的pom.xml。 https://github.com/apache/spark/blob/master/pom.xml

以下是摘录

<profile> 
    <id>scala-2.11</id> 
    <activation> 
    <property><name>scala-2.11</name></property> 
    </activation> 
    <properties> 
    <scala.version>2.11.7</scala.version> 
    <scala.binary.version>2.11</scala.binary.version> 
    </properties> 
</profile> 

    <dependency> 
    <groupId>org.scala-lang</groupId> 
    <artifactId>scala-compiler</artifactId> 
    <version>${scala.version}</version> 
    </dependency> 
    <dependency> 
    <groupId>org.scala-lang</groupId> 
    <artifactId>scala-reflect</artifactId> 
    <version>${scala.version}</version> 
    </dependency> 
    <dependency> 
    <groupId>org.scala-lang</groupId> 
    <artifactId>scala-library</artifactId> 
    <version>${scala.version}</version> 
    </dependency> 
    <dependency> 
    <groupId>org.scala-lang</groupId> 
    <artifactId>scala-actors</artifactId> 
    <version>${scala.version}</version> 
    </dependency> 
    <dependency> 
    <groupId>org.scala-lang</groupId> 
    <artifactId>scalap</artifactId> 
    <version>${scala.version}</version> 
    </dependency> 
+1

你的scala库工作正常吗?这是它没有发现的基本Scala的一部分。我建议尝试删除,然后在您的项目设置中重新添加scala库。 – childofsoong

+0

@soong。我已经尝试删除/重新添加scala库。 – javadba

+1

你的pom.xml是什么样的?它包括scala-library吗? – jeff

回答

0

你需要确保星火LIB是您CLASS_PATH。

建立它运行

build/mvn -DskipTests clean package

则包括 '/组件/目标/ scala- $ SCALA_VERSION /火花组装的Hadoop -deps.jar' 到您的项目。

相关问题