2015-04-27 27 views
0

当试图从bin目录运行脚本spark-shell.cmd时出现此错误“无法找到Spark程序集JAR”。我已经下载了Spark的预建版本(1.3.1 for Hadoop 2.6及更高版本),我安装了java 1.8,并且希望将其安装在Windows 8.1 x64机器上。 我也安装了Scala 2.11.6。无法在Windows 8.1上找到Spark程序集JAR

我可以得到一些帮助,为什么这可能会发生? 为了成功运行Spark,需要额外配置哪些配置?

回答

0

原来我设法下载了错误的软件包。对不起,提问

相关问题