我想调整Spark的内存参数。 我想:在Spark中设置“spark.memory.storageFraction”不起作用
sparkSession.conf.set("spark.memory.storageFraction","0.1") //sparkSession has been created
后,我提交作业并检查星火UI。我发现“存储内存”仍然和以前一样。所以上述不起作用。
设置“spark.memory.storageFraction”的正确方法是什么?
我正在使用Spark 2.0。