我试图设置配置属性侧翻标准错误日志(这是在不断扩张)星火执行日志(错误)滚动
mySparkConf.set("spark.executor.logs.rolling.maxRetainedFiles","5")
mySparkConf.set("spark.executor.logs.rolling.time.interval","minutely")
mySparkConf.set("spark.executor.logs.rolling.strategy","time")
或
mySparkConf.set("spark.executor.logs.rolling.maxRetainedFiles","5")
mySparkConf.set("spark.executor.logs.rolling.maxSize","100000")
mySparkConf.set("spark.executor.logs.rolling.strategy","size")
它不工作或它的工作原理与我预期的不同(没有太多文档)。
例如,我希望基于时间的滚动会在每分钟后创建一个新文件(如上配置)。但是,在这段时间之后,它仍然在增长。
mySparkConf = SparkConf()
...
mySparkConf.set("spark.executor.logs.rolling.maxRetainedFiles","5") mySparkConf.set("spark.executor.logs.rolling.maxSize","100000") mySparkConf.set("spark.executor.logs.rolling.strategy","size")
...
mySparkContext = SparkContext(conf=mySparkConf) mySparkStreamingContext = StreamingContext(mySparkContext,10) mySparkSession = SparkSession.builder.appName("my app").config(conf=mySparkConf).getOrCreate()
什么是mySparkConf在这里,是你用什么来启动火花上下文? –
@GauravShah编辑我的文章。请检查。 – user7079680
@GauravShah我编辑了我的文章 – user7079680