我最近在学Spark,但我对Spark配置有点困惑。 AFAIK,至少有3种方式配置:通过环境变量,命令行参数或代码设置Spark配置?
- 环境变量,http://spark.apache.org/docs/latest/spark-standalone.html
- 的命令行参数,如
./bin/spark-submit --class <main-class> --master xxx --deploy-mode xxx --conf key=value
- 代码,像斯卡拉/ Java代码。
为什么有这么多的方式来做到这一点,有什么区别?对此有最佳做法吗?
这是一个grate的解释,所以:source code - application config;命令行 - 为运行指定; env var - 硬件/环境 –