我试图在Windows 10上安装Apache Spark。我下载了Spark和winutils.exe,设置了SPARK_HOME,HADOOP_HOME并更新了PATH变量以包含Spark bin路径。但是,当我运行spark-shell时,我得到下面的错误。有什么问题?在Windows上运行Spark时出错
C:\tools\spark-2.1.1-bin-hadoop2.7\bin>spark-shell
'""C:\Program' is not recognized as an internal or external command,
operable program or batch file.
您的路径中有空格 –
是的,我在PATH中的C:\ Program Files \ Java \ jdk1.8.0_92 \ bin中有空格,那是问题所在?我应该追加引号吗? – ps0604
它看起来像引号可能会帮助,无论是太多或两个。你可以添加安装位置,以及SPARK_HOME,HADOOP_HOME和PATH的确切值到你的问题。Spark-shell脚本为SPARK_HOME添加了引号,所以它可能值得在没有引号的情况下尝试(如果你有它们的话)。 – GregHNZ