几个星期前,我正在开发使用jupyter和pyspark,一切工作正常。火花根本不启动
我现在重新开始工作,发生了一些事情发生在我的环境中。我绝对不能启动火花(spark-shell,pyspark或spark-submit)。
16/03/15 17:43:58 INFO SparkEnv: Registering OutputCommitCoordinator
我的环境是::日志总是在以下行停止
- 的Ubuntu 14.04
- 星火1.6.1
- 的Java 1.7或1.8(试用过!)
- Python 2.7.11 | Anaconda 2.3.0(64-bit)| (默认情况下,2015年12月6日,18时08分32秒)[GCC 4.4.7 20120313(红帽4.4.7-1)
完整的日志是在这里:http://pastebin.com/raw/TCb0crkA
(我不t使用HADOOP,这就是为什么HADOOP_HOME没有设置)
请帮忙吗?
编辑
我的应用程序是在Python,和我贴的日志是从独立pyspark应用程序启动使用以下命令:
$SPARK_HOME/bin/spark-submit --py-files py-files.zip main.py
我的$ SPARK_HOME设置为/opt/spark-1.6.1-bin-hadoop2.6/
尽管我无法启动我的应用程序,但我也注意到这种情况发生在pyspark shell,甚至是scala shell中。
这个错误是来自spark-shell或pyspark还是所有这些? spark_shell或pyspark不需要hadoop_home,除非你指定了任何告诉它查找它的选项。我看到这个错误,当spark-submit会有一些需要hadoop库的代码。 什么是为您的SPARK_HOME设置的? –
抱歉失踪的信息。上面更新。 –