在spark-submit中,如何指定log4j.properties?spark-submit,如何指定log4j.properties
这是我的脚本。我试过所有的组合,甚至只使用一个本地节点。但看起来像log4j.properties未加载,所有调试级别信息都被转储。
current_dir=/tmp
DRIVER_JAVA_OPTIONS="-Dlog4j.configuration=file://${current_dir}/log4j.properties "
spark-submit \
--conf "spark.driver.extraClassPath=$current_dir/lib/*" \
--conf "spark.driver.extraJavaOptions=-Djava.security.krb5.conf=${current_dir}/config/krb5.conf -Djava.security.auth.login.config=${current_dir}/config/mssqldriver.conf" \
--conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=file://${curent_dir}/log4j.properties " \
--class "my.AppMain" \
--files ${current_dir}/log4j.properties \
--master local[1] \
--driver-java-options "$DRIVER_JAVA_OPTIONS" \
--num-executors 4 \
--driver-memory 16g \
--executor-cores 10 \
--executor-memory 6g \
$current_dir/my-app-SNAPSHOT-assembly.jar
log4j属性:
log4j.rootCategory=INFO, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %c{1}:%L - %m%n
log4j.additivity.org=false
log4j.logger.org=WARN
parquet.hadoop=WARN
log4j.logger.com.barcap.eddi=WARN
log4j.logger.com.barcap.mercury=WARN
log4j.logger.yarn=WARN
log4j.logger.io.netty=WARN
log4j.logger.Remoting=WARN
log4j.logger.org.apache.hadoop=ERROR
# this disables the table creation logging which is so verbose
log4j.logger.hive.ql.parse.ParseDriver=WARN
# this disables pagination nonsense when running in combined mode
log4j.logger.com.barcap.risk.webservice.servlet.PaginationFactory=WARN
您只在执行程序上指定'-Dlog4j.configuration'。那是故意的吗? –
我从未在Hadoop上用'-Dlog4j.configuration ='获得过很多运气。由于“log4j.properties”是默认的文件名,只要在驱动程序CLASSPATH中添加包含该文件的*目录*,Log4J就会找到它。或者更简单一些,把你的文件放在你的$ SPARK_CONF_DIR和'spark-default.conf'以及朋友... –
首先尝试直接执行此操作,即使用一个非常简单的程序并执行spark-submit --dirver-java-选项“-Dlog4j.configuration = file:///home/username/file.prop”没有任何其他内容。它应该工作。如果不是,那可能是因为你的代码依赖于其他的slf4j实现,并且使用那个实现来代替(这意味着它可能取得它们的属性)。 –