我试图设置独立的Spark 2.0服务器来并行处理分析功能。要做到这一点,我想有一个单独的工人与多个执行者。具有多个执行程序的Spark独立配置
我使用:
- 独立星火2.0
- 8核
- 24gig RAM
- 的Windows Server 2008
- pyspark(尽管这似乎无关)
这只是为了概念目的的纯粹证明,但我想要8执行者,每个核心一个。
我试图按照这个主题上的其他线程,但由于某种原因,它不适合我。 IE: Spark Standalone Number Executors/Cores Control
我的配置如下:
的conf \火花defaults.conf
spark.cores.max = 8
spark.executor.cores = 1
我试图同时更改我的spark-env.sh文件无济于事。相反,发生的事情是它表明我的工人只有1个执行者。正如你在下面看到的,它仍然显示了带有1个执行器的8个内核的独立版本。