0
当试图从bin目录运行脚本spark-shell.cmd时出现此错误“无法找到Spark程序集JAR”。我已经下载了Spark的预建版本(1.3.1 for Hadoop 2.6及更高版本),我安装了java 1.8,并且希望将其安装在Windows 8.1 x64机器上。 我也安装了Scala 2.11.6。无法在Windows 8.1上找到Spark程序集JAR
我可以得到一些帮助,为什么这可能会发生? 为了成功运行Spark,需要额外配置哪些配置?