0
我目前正在尝试学习Apache Spark。我使用Maven和Java,因为我不熟悉Scala或SBT。使用Maven的Apache Spark错误
此外,我试过的所有例子似乎都有超过2000行的“pom.xml”文件。是否需要许多依赖项?
Here's我试过的例子。 Here's我目前的“pom.xml”文件。 这是我得到的错误:
Exception in thread "main" java.lang.NoSuchMethodError: scala.Predef$.ArrowAssoc(Ljava/lang/Object;)Ljava/lang/Object;
at org.apache.spark.sql.SparkSession$Builder.config(SparkSession.scala:666)
at org.apache.spark.sql.SparkSession$Builder.appName(SparkSession.scala:657)
at misc.apache2.main(apache2.java:47)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at com.intellij.rt.execution.application.AppMain.main(AppMain.java:144)
Process finished with exit code 1
而且,如果我使用Maven项目的Apache星火,我需要有一个build.sbt文件?
与目前的IntelliJ 16.1.3中,Windows 10