在Ubuntu上的Spark安装过程中,我遵循以下步骤并且遇到错误。在Ubuntu上安装Spark时出现错误
步骤如下:
- 焦油xvf命令斯卡拉 - 2.10.6.tgz
- 然后我这个文件夹移动到:sudo的MV斯卡拉-2.10.6 /usr/local/scala-2.10
- gedit中的〜/ .bashrc
- 加入Path变量:出口PATH = $ PATH:在/ usr /本地/斯卡拉/ bin中
- 检查Scala是由安装:斯卡拉-version
- 相同的步骤,遵循installi纳克火花-1.6.2.tgz
- 源的〜/ .bashrc
- 火花壳
一旦我运行这种 “火花 - 壳” 我碰上此错误: LS:无法访问'/usr/local/spark/assembly/target/scala-2.10:没有这样的文件或目录 无法在/usr/local/spark/assembly/target/scala-2.10中找到spark程序集 需要构建spark
非常感谢!但是我想补充一点,#Spark刚添加了2.0.0的最新下载tar和[选择软件包类型:](http://spark.apache.org/downloads.html)已经有了deafult作为“预编译Hadoop 2.7及更高版本”,并为我解决。 – Sweta
哇,这是个好消息:)我一直在等待('2.0.0')这几个月。谢谢你让我知道。 – avr