我想运行一个简单的spark程序,但是我受到一些错误的限制。 我的环境是: CentOS的:6.6 的Java:1.7.0_51 斯卡拉:2.10.4 星火:火花1.4.0彬hadoop2.6 Mesos:0.22.1用Zookeeper在Mesos上运行一个简单的Spark脚本
所有安装和节点up.Now我有一个Mesos主和Mesos从属节点。我的火花性质如下:
spark.app.id 20150624-185838-2885789888-5050-1291-0005
spark.app.name Spark shell
spark.driver.host 192.168.1.172
spark.driver.memory 512m
spark.driver.port 46428
spark.executor.id driver
spark.executor.memory 512m
spark.executor.uri http://192.168.1.172:8080/spark-1.4.0-bin-hadoop2.6.tgz
spark.externalBlockStore.folderName spark-91aafe3b-01a8-4c86-ac3b-999e278807c5
spark.fileserver.uri http://192.168.1.172:51240
spark.jars
spark.master mesos://zk://192.168.1.172:2181/mesos
spark.mesos.coarse true
spark.repl.class.uri http://192.168.1.172:51600
spark.scheduler.mode FIFO
现在,当我开始的火花,它涉及到斯卡拉提示符(斯卡拉>)。 之后,我得到以下错误:mesos任务1现在是TASK_FAILED,因故障太多而被列入黑名单mesos slave值的是Spark安装在其上 如何解决此问题。
这只是不断重复TASK_FAILED..5050启动并运行。我想增加主人,所以我保持zk。 BTW。这是有900 MB的内存可用,增加到2GB后,它看起来工作。所以可能的记忆是问题!谢谢.. – user3374023