我从一个shell脚本提交一个火花作业,该脚本有一堆env vars和参数传递给spark。奇怪的是,驱动程序主机不是这些参数之一(但是有驱动程序核心和内存)。因此,如果我在群集中有3台机器,则会随机选择一个驱动程序。我不想要这样的行为,因为1)我要提交的jar只在其中一台机器上,2)驱动程序机器应该比其他机器小,如果它是随机选择,情况就不是这样。指定火花提交的火花驱动程序
到目前为止,我没有办法在命令行上指定这个参数为spar-submit
。我试过--conf SPARK_DRIVER_HOST="172.30.1.123
,--conf spark.driver.host="172.30.1.123
和许多其他的东西,但没有任何影响。我正在使用spark 2.1.0。谢谢。
您是否以群集模式启动纱线? – FaigB
我使用集群模式 – Dmitri
任何人都可以点我一个很好的资源解释火花执行模型?官方文档只是增加了混淆... – Dmitri