2017-02-14 20 views
1

在spark-submit中,如何指定log4j.properties?spark-submit,如何指定log4j.properties

这是我的脚本。我试过所有的组合,甚至只使用一个本地节点。但看起来像log4j.properties未加载,所有调试级别信息都被转储。

current_dir=/tmp 
DRIVER_JAVA_OPTIONS="-Dlog4j.configuration=file://${current_dir}/log4j.properties " 

spark-submit \ 
--conf "spark.driver.extraClassPath=$current_dir/lib/*" \ 
--conf "spark.driver.extraJavaOptions=-Djava.security.krb5.conf=${current_dir}/config/krb5.conf -Djava.security.auth.login.config=${current_dir}/config/mssqldriver.conf" \ 
--conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=file://${curent_dir}/log4j.properties " \ 
--class "my.AppMain" \ 
--files ${current_dir}/log4j.properties \ 
--master local[1] \ 
--driver-java-options "$DRIVER_JAVA_OPTIONS" \ 
--num-executors 4 \ 
--driver-memory 16g \ 
--executor-cores 10 \ 
--executor-memory 6g \ 
$current_dir/my-app-SNAPSHOT-assembly.jar 

log4j属性:

log4j.rootCategory=INFO, console 
log4j.appender.console=org.apache.log4j.ConsoleAppender 
log4j.appender.console.layout=org.apache.log4j.PatternLayout 
log4j.appender.console.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %c{1}:%L - %m%n 

log4j.additivity.org=false 

log4j.logger.org=WARN 
parquet.hadoop=WARN 
log4j.logger.com.barcap.eddi=WARN 
log4j.logger.com.barcap.mercury=WARN 
log4j.logger.yarn=WARN 
log4j.logger.io.netty=WARN 
log4j.logger.Remoting=WARN 
log4j.logger.org.apache.hadoop=ERROR 

# this disables the table creation logging which is so verbose 
log4j.logger.hive.ql.parse.ParseDriver=WARN 

# this disables pagination nonsense when running in combined mode 
log4j.logger.com.barcap.risk.webservice.servlet.PaginationFactory=WARN 
+0

您只在执行程序上指定'-Dlog4j.configuration'。那是故意的吗? –

+0

我从未在Hadoop上用'-Dlog4j.configuration ='获得过很多运气。由于“log4j.properties”是默认的文件名,只要在驱动程序CLASSPATH中添加包含该文件的*目录*,Log4J就会找到它。或者更简单一些,把你的文件放在你的$ SPARK_CONF_DIR和'spark-default.conf'以及朋友... –

+0

首先尝试直接执行此操作,即使用一个非常简单的程序并执行spark-submit --dirver-java-选项“-Dlog4j.configuration = file:///home/username/file.prop”没有任何其他内容。它应该工作。如果不是,那可能是因为你的代码依赖于其他的slf4j实现,并且使用那个实现来代替(这意味着它可能取得它们的属性)。 –

回答

2
  1. 复制火花defaults.conf到一个新的应用程序,火花defaults.conf
  2. 添加-Dlog4j.configuration =文件:// log4j.properties添加到app-spark-defaults.conf中的spark.driver.extraJavaOptions。例如:

    spark.driver.extraJavaOptions -XXOther_flag -Dlog4j.configuration =文件://log4j.properties

  3. 使用--properties文件到新的conf文件运行你的火花。 例如:
    火花提交--properties文件APP-火花defaults.conf --class my.app.class --master纱--deploy模式客户端〜/我-jar.jar

+0

你累了吗?它的工作? –

+0

是的,它对我来说EMR –

+0

哦好吧。我无法弄清楚如何在纱线群上运行 –

-1

hadoop_home/conf中已经有一个log4j.properties。只需编辑那一个,添加自己的记录器

+1

在大多数装置中,运行这项工作的人并不是控制hadoop_home的人 – Krever