我有一个运行在AWS上的Mesos DCOS群集,通过dcos package install spark
命令安装了Spark。我能够使用DCOS CLI成功执行Spark作业:dcos spark run ...
从运行在Mesos上的应用程序中的Spark提交DCOS群集
现在我想从运行在Mesos群集中的Docker容器执行Spark作业,但我不太清楚如何到达正在运行的实例火花。这个想法是让Docker容器执行命令将作业提交给Spark部署而不是从DCOS CLI集群外部执行相同的作业。
当前的文档似乎只关注通过DCOS CLI运行Spark - 有没有办法通过集群内运行的另一个应用程序来实现Spark部署?