我尝试在YARN-CLUSTER(2节点)运行星火应用但似乎那些2个节点的不平衡,因为只有1个节点工作但另一个不是。运行火花提交(只有1个节点工作)
我的脚本:
spark-submit --class org.apache.spark.examples.SparkPi
--master yarn-cluster --deploy-mode cluster --num-executors 2
--driver-memory 1G
--executor-memory 1G
--executor-cores 2 spark-examples-1.6.1-hadoop2.6.0.jar 1000
我看到的是工作的我的节点之一,但另一个不是,所以这是不平衡的:
注:左边是namenode
,并datanode
是正确的...
任何想法?
但是我想在群集模式下运行它 – anunixercoder
如果你只是想看到输出,你可以在纱线日志中使用“纱线日志-applicationId <纱线应用程序ID>”来看它。您还可以修改SparkPi并将输出存储在HDFS或某些数据库中。 – banjara
如何找到applicationId? – anunixercoder