0
我想在我的Mesos群集上运行多个Spark任务,并让所有Spark任务共享相同的Spark框架。这可能吗? 我曾尝试运行MesosClusterDispatcher,并将spark工作连接到调度程序,但每个spark工作都会启动它自己的“Spark Framework”(我尝试运行客户端模式和集群模式)。 这是预期的行为? 是否有可能在多个spark工作中共享相同的spark-framework?在Mesos群集上运行多个Spark作业
在“客户端模式”下运行时,没有SparkDispatcher,驱动程序直接与Mesos交互。那么为什么调度程序需要集群模式呢? – Aliza
建议你看看http://spark.apache.org/docs/latest/running-on-mesos.html –
@MichaelHausenblas我熟悉文档,但这是如何回答我的问题>你指的是调度员写入Zookeeper的“恢复状态”? – Aliza