2
我按照建立星火使用Scala 2.11的说明:在Scala 2.11的独立模式下运行Spark?
mvn -Dscala-2.11 -DskipTests clean package
然后我按照指示启动:
./sbin/start-master.sh
它失败,两条线在日志文件:
Failed to find Spark assembly in /etc/spark-1.2.1/assembly/target/scala-2.10
You need to build Spark before running this program.
显然,它正在寻找一个scala-2.10版本,但我做了一个scala-2.11版本。我尝试了明显的-Dscala-2.11标志,但是这并没有改变任何东西。文档没有提及如何在scala 2.11的独立模式下运行。
在此先感谢!
我跑这个脚本。它没有帮助。我得到完全相同的错误引用程序集/目标/ scala-2.10。我在Spark 1.2.1(最好)和最新的Spark 1.3.0中都试过,只是为了检查。 – clay
你在linux机器上吗?另一个选项是自己手动编辑脚本。 – dpeacock
是的,Linux。 CentOS虚拟机是特定的。我没有得到任何错误。有什么方法可以验证sed命令是否成功? – clay