2016-08-16 55 views
1

我有一个运行在AWS上的Mesos DCOS群集,通过dcos package install spark命令安装了Spark。我能够使用DCOS CLI成功执行Spark作业:dcos spark run ...从运行在Mesos上的应用程序中的Spark提交DCOS群集

现在我想从运行在Mesos群集中的Docker容器执行Spark作业,但我不太清楚如何到达正在运行的实例火花。这个想法是让Docker容器执行​​命令将作业提交给Spark部署而不是从DCOS CLI集群外部执行相同的作业。

当前的文档似乎只关注通过DCOS CLI运行Spark - 有没有办法通过集群内运行的另一个应用程序来实现Spark部署?

回答

相关问题