我想停止Spark重试Spark应用程序以防发生某些特定异常。如果满足某些条件,我只想限制重试次数。否则,我需要默认的重试次数。如何控制每个任务/舞台/作业尝试的Spark应用程序?
请注意,Spark应用程序只运行一个Spark作业。
我试着在例外的情况下设置javaSparkContext.setLocalProperty("spark.yarn.maxAppAttempts", "1");
,但仍然重试整个工作。
我提交星火应用程序如下:
spark-submit --deploy-mode cluster theSparkApp.jar
我有,我想删除,如果它是由同一作业的先前重试创建的输出的使用情况,但未能如果工作输出文件夹不是空的(在第1次重试中)。你能想出任何其他方式来实现这一目标吗?
你如何提交部署你的星火应用程序?什么是使用的命令行选项和Spark属性?顺便说一句,即使你说你的意思是“整个Spark应用程序”,你仍然使用“整个工作仍在重试”。一个Spark应用程序可以运行/提交一个或多个Spark作业。 –
您可否使用'spark-submit --deploy-mode cluster --conf spark.yarn.maxAppAttempts = 1'(并在命令行上使用Spark设置)。 –