我刚刚开始使用的Spark群集中看到了非常奇怪的行为。用于记录Spark日志不会返回给驱动程序,消息只存在于工作人员
正常行为是当一个运行人会看到日志消息,像这样:
INFO 2016-11-04 13:14:10,671 org.apache.spark.executor.Executor: Finished task 227.0 in stage 4.0 (TID 3168). 1992 bytes result sent to driver
这些往往填补控制台非常迅速,通过高手,尤其是当应用程序使用了大量的分区。
但是我在运行spark-submit之后没有看到来自Spark的任何常规日志消息。大约5行。相反,所有正常的日志消息都在Spark UI中的驱动程序stdout中。
因此,问题是什么设置和哪里可能告诉Spark不返回这些日志条目回驱动程序?
这非常令人沮丧,因为当日志消息被分割到多个位置时,很难调试应用程序。通常我会在运行spark-submit之后将日志注入到屏幕上,并且了解它在做什么。现在我无法得到这种感觉,因为我必须在事件之后查看日志。
堵塞日志收集的单点故障听起来有风险,你不觉得吗? – 2016-11-04 14:07:28
@LostInOverflow我正在尝试调试一个应用程序。 – samthebest