2016-10-22 62 views
0

当我查看Spark UI上的Jobs选项卡时,可以看到任务状态如20/20 /(4失败)。Spark Streaming失败执行器任务

这是否意味着失败的任务会丢失数据?这些失败的任务是不是转移到了diff执行器?

enter image description here

回答

3

虽然你应该警惕失败的任务(它们通常一个潜在的内存问题的指标),你不必担心数据丢失。这些阶段已被标记为已成功完成,因此失败的任务实际上(最终)已成功处理。

+0

谢谢Glennie。 – AKC

+0

@AKC虽然任务失败一般不应该担心,但我失败的任务经常会让你担心。你能否为失败的任务添加额外的堆栈跟踪和错误消息? –

相关问题