2015-04-15 54 views
2

我按照建立星火使用Scala 2.11的说明:在Scala 2.11的独立模式下运行Spark?

mvn -Dscala-2.11 -DskipTests clean package 

然后我按照指示启动:

./sbin/start-master.sh 

它失败,两条线在日志文件:

Failed to find Spark assembly in /etc/spark-1.2.1/assembly/target/scala-2.10 
You need to build Spark before running this program. 

显然,它正在寻找一个scala-2.10版本,但我做了一个scala-2.11版本。我尝试了明显的-Dscala-2.11标志,但是这并没有改变任何东西。文档没有提及如何在scala 2.11的独立模式下运行。

在此先感谢!

回答

6

之前,你必须在运行该脚本:

开发/ change-version-to-2.11.sh

哪些应该更换2.11至2.10引用。

注意,这不一定会工作打算与非GNU的sed(如OS X)

+0

我跑这个脚本。它没有帮助。我得到完全相同的错误引用程序集/目标/ scala-2.10。我在Spark 1.2.1(最好)和最新的Spark 1.3.0中都试过,只是为了检查。 – clay

+0

你在linux机器上吗?另一个选项是自己手动编辑脚本。 – dpeacock

+0

是的,Linux。 CentOS虚拟机是特定的。我没有得到任何错误。有什么方法可以验证sed命令是否成功? – clay

相关问题