2016-07-27 93 views
0

在Ubuntu上的Spark安装过程中,我遵循以下步骤并且遇到错误。在Ubuntu上安装Spark时出现错误

步骤如下:

  1. 焦油xvf命令斯卡拉 - 2.10.6.tgz
  2. 然后我这个文件夹移动到:sudo的MV斯卡拉-2.10.6 /usr/local/scala-2.10
  3. gedit中的〜/ .bashrc
  4. 加入Path变量:出口PATH = $ PATH:在/ usr /本地/斯卡拉/ bin中
  5. 检查Scala是由安装:斯卡拉-version
  6. 相同的步骤,遵循installi纳克火花-1.6.2.tgz
  7. 源的〜/ .bashrc
  8. 火花壳

一旦我运行这种 “火花 - 壳” 我碰上此错误: LS:无法访问'/usr/local/spark/assembly/target/scala-2.10:没有这样的文件或目录 无法在/usr/local/spark/assembly/target/scala-2.10中找到spark程序集 需要构建spark

回答

1

在步骤#6中,您正在下载spark-1.6.2的源代码。但是对于火花安装,您需要预先构建火花包。

因此,要获得构建的火花包,您必须从您下载的源代码构建它,或者需要从spark-downloads page下载预构建的火花包。在此页面中,您将看到步骤2为Choose a package type:,您需要选择预先构建的火花包。

+0

非常感谢!但是我想补充一点,#Spark刚添加了2.0.0的最新下载tar和[选择软件包类型:](http://spark.apache.org/downloads.html)已经有了deafult作为“预编译Hadoop 2.7及更高版本”,并为我解决。 – Sweta

+0

哇,这是个好消息:)我一直在等待('2.0.0')这几个月。谢谢你让我知道。 – avr

0

这可能是你的spark-assembly。*。jar not generated try重建你的火花并再次检查。