2017-06-02 92 views
0

我试图在Windows 10上安装Apache Spark。我下载了Spark和winutils.exe,设置了SPARK_HOME,HADOOP_HOME并更新了PATH变量以包含Spark bin路径。但是,当我运行spark-shell时,我得到下面的错误。有什么问题?在Windows上运行Spark时出错

C:\tools\spark-2.1.1-bin-hadoop2.7\bin>spark-shell 
'""C:\Program' is not recognized as an internal or external command, 
operable program or batch file. 
+0

您的路径中有空格 –

+0

是的,我在PATH中的C:\ Program Files \ Java \ jdk1.8.0_92 \ bin中有空格,那是问题所在?我应该追加引号吗? – ps0604

+0

它看起来像引号可能会帮助,无论是太多或两个。你可以添加安装位置,以及SPARK_HOME,HADOOP_HOME和PATH的确切值到你的问题。Spark-shell脚本为SPARK_HOME添加了引号,所以它可能值得在没有引号的情况下尝试(如果你有它们的话)。 – GregHNZ

回答

2

尝试了很长一段时间,并通过不同的物品去,这个问题涉及到设置环境变量correctly.Things其实就是简单的,只是需要得到树立正确之后我想通了看到你的火星壳工作,下面是提到的步骤,以正确和工作。

  1. (1.7+)在“C”目录或目录中的空间我们不是有完整的路径之间下安装Java。就像我在“C:/ Java”路径下安装了Java 1.8版本一样。但是,如果您已经在“Program Files”/“Program Files(86)”下安装了java,则需要将JAVA_HOME和PATH变量放在双引号中,如JAVA_HOME =“C:\ Program Files \ Java”,PATH =“ JAVA_HOME%\ BIN%”。

    C:\用户\ ankitthakur> Java的版本 Java版本 “1.8.0_131” 的Java(TM)SE运行时环境(建立1.8.0_131-B11) 爪哇热点(TM)64位服务器VM (构建25.131-b11,混合模式)

  2. 为了一致性,在“C:\ Scala”下安装Scala,或者您可以选择任何其他目录。设置SCALA_HOME并添加到PATH变量中。

    C:\用户\ ankitthakur>阶-version Scala代码转轮版本2.11.8 - 版权2002年至2016年,LAMP/EPF

  3. 下安装SBT “C:\ SBT” 和类似设置SBT_HOME和PATH。

  4. 从下面的链接下载Spark。请记得下载Hadoop的预建版本,否则你需要建立你的下载源代码,你可以通过maven来做到这一点,如果你已经安装,否则下载并安装它。将它放在“C:\ Spark”目录下以保持一致性并设置SPARK_HOME和PATH。 Donwload路径http://spark.apache.org/downloads.html

  5. 我们在这里做了,但是在Windows系统中,我们得到的错误,如果我们不同时运行火花脚本安装winutils.exe文件。因此,处理这种情况从下面提到的路径下载并放在“C:\ Winutils \ bin”目录下(我们需要创建这个目录)并设置HADOOP_HOME和PATH变量。

finalllyyyy !!!!!,我们在这里完成,它似乎很长,但它并不真正相信我,但确保你有一切正常到位。请在我的机器上的环境变量快照上有一个掠夺。 environment variables set for setting up spark.

0

我有同样的问题。只需将该spark文件夹粘贴到C:中并在环境变量中指定路径即可。它应该工作。

相关问题