我试图在EMR集群中运行一个spark任务。如何指定火花提交到Amazon EMR时自定义log4j.configuration的位置?
我我的火花提交我已经加入CONFIGS从log4j.properties
--files log4j.properties --conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=file:/log4j.properties"
而且我在log4j的配置添加
log4j.rootLogger=INFO, file
log4j.appender.file=org.apache.log4j.RollingFileAppender
log4j.appender.file.File=/log/test.log
log4j.appender.file.MaxFileSize=10MB
log4j.appender.file.MaxBackupIndex=10
log4j.appender.file.layout=org.apache.log4j.PatternLayout
log4j.appender.file.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %5p %c{7} - %m%n
阅读。
无论如何,我看到控制台中的日志,但我没有看到生成的日志文件。我在这里做错了什么?
spark-submit --class com.myapp.cloud.app.UPApp - 主纱 - 部署模式客户端 - 驱动程序内存4g - 执行程序 - 内存2g --executor-cores 8 - 文件log4j .properties --conf“spark.executor.extraJavaOptions = -Dlog4j.configuration = file://./log4j.properties”--conf“spark.eventLog.dir =/mnt/var/log /”uber-up-0.0 .jar我试图运行这个仍然我没有看到在/log/test.log位置创建的任何日志文件 –